]> git.sur5r.net Git - armstart-ibdap/blob - inc/core_cmInstr.h
initial commit
[armstart-ibdap] / inc / core_cmInstr.h
1 /**************************************************************************//**\r
2  * @file     core_cmInstr.h\r
3  * @brief    CMSIS Cortex-M Core Instruction Access Header File\r
4  * @version  V3.20\r
5  * @date     05. March 2013\r
6  *\r
7  * @note\r
8  *\r
9  ******************************************************************************/\r
10 /* Copyright (c) 2009 - 2013 ARM LIMITED\r
11 \r
12    All rights reserved.\r
13    Redistribution and use in source and binary forms, with or without\r
14    modification, are permitted provided that the following conditions are met:\r
15    - Redistributions of source code must retain the above copyright\r
16      notice, this list of conditions and the following disclaimer.\r
17    - Redistributions in binary form must reproduce the above copyright\r
18      notice, this list of conditions and the following disclaimer in the\r
19      documentation and/or other materials provided with the distribution.\r
20    - Neither the name of ARM nor the names of its contributors may be used\r
21      to endorse or promote products derived from this software without\r
22      specific prior written permission.\r
23    *\r
24    THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"\r
25    AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE\r
26    IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE\r
27    ARE DISCLAIMED. IN NO EVENT SHALL COPYRIGHT HOLDERS AND CONTRIBUTORS BE\r
28    LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR\r
29    CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF\r
30    SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS\r
31    INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN\r
32    CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)\r
33    ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE\r
34    POSSIBILITY OF SUCH DAMAGE.\r
35    ---------------------------------------------------------------------------*/\r
36 \r
37 \r
38 #ifndef __CORE_CMINSTR_H\r
39 #define __CORE_CMINSTR_H\r
40 \r
41 \r
42 /* ##########################  Core Instruction Access  ######################### */\r
43 /** \defgroup CMSIS_Core_InstructionInterface CMSIS Core Instruction Interface\r
44   Access to dedicated instructions\r
45   @{\r
46 */\r
47 \r
48 #if   defined ( __CC_ARM ) /*------------------RealView Compiler -----------------*/\r
49 /* ARM armcc specific functions */\r
50 \r
51 #if (__ARMCC_VERSION < 400677)\r
52   #error "Please use ARM Compiler Toolchain V4.0.677 or later!"\r
53 #endif\r
54 \r
55 \r
56 /** \brief  No Operation\r
57 \r
58     No Operation does nothing. This instruction can be used for code alignment purposes.\r
59  */\r
60 #define __NOP                             __nop\r
61 \r
62 \r
63 /** \brief  Wait For Interrupt\r
64 \r
65     Wait For Interrupt is a hint instruction that suspends execution\r
66     until one of a number of events occurs.\r
67  */\r
68 #define __WFI                             __wfi\r
69 \r
70 \r
71 /** \brief  Wait For Event\r
72 \r
73     Wait For Event is a hint instruction that permits the processor to enter\r
74     a low-power state until one of a number of events occurs.\r
75  */\r
76 #define __WFE                             __wfe\r
77 \r
78 \r
79 /** \brief  Send Event\r
80 \r
81     Send Event is a hint instruction. It causes an event to be signaled to the CPU.\r
82  */\r
83 #define __SEV                             __sev\r
84 \r
85 \r
86 /** \brief  Instruction Synchronization Barrier\r
87 \r
88     Instruction Synchronization Barrier flushes the pipeline in the processor,\r
89     so that all instructions following the ISB are fetched from cache or\r
90     memory, after the instruction has been completed.\r
91  */\r
92 #define __ISB()                           __isb(0xF)\r
93 \r
94 \r
95 /** \brief  Data Synchronization Barrier\r
96 \r
97     This function acts as a special kind of Data Memory Barrier.\r
98     It completes when all explicit memory accesses before this instruction complete.\r
99  */\r
100 #define __DSB()                           __dsb(0xF)\r
101 \r
102 \r
103 /** \brief  Data Memory Barrier\r
104 \r
105     This function ensures the apparent order of the explicit memory operations before\r
106     and after the instruction, without ensuring their completion.\r
107  */\r
108 #define __DMB()                           __dmb(0xF)\r
109 \r
110 \r
111 /** \brief  Reverse byte order (32 bit)\r
112 \r
113     This function reverses the byte order in integer value.\r
114 \r
115     \param [in]    value  Value to reverse\r
116     \return               Reversed value\r
117  */\r
118 #define __REV                             __rev\r
119 \r
120 \r
121 /** \brief  Reverse byte order (16 bit)\r
122 \r
123     This function reverses the byte order in two unsigned short values.\r
124 \r
125     \param [in]    value  Value to reverse\r
126     \return               Reversed value\r
127  */\r
128 #ifndef __NO_EMBEDDED_ASM\r
129 __attribute__((section(".rev16_text"))) __STATIC_INLINE __ASM uint32_t __REV16(uint32_t value)\r
130 {\r
131   rev16 r0, r0\r
132   bx lr\r
133 }\r
134 #endif\r
135 \r
136 /** \brief  Reverse byte order in signed short value\r
137 \r
138     This function reverses the byte order in a signed short value with sign extension to integer.\r
139 \r
140     \param [in]    value  Value to reverse\r
141     \return               Reversed value\r
142  */\r
143 #ifndef __NO_EMBEDDED_ASM\r
144 __attribute__((section(".revsh_text"))) __STATIC_INLINE __ASM int32_t __REVSH(int32_t value)\r
145 {\r
146   revsh r0, r0\r
147   bx lr\r
148 }\r
149 #endif\r
150 \r
151 \r
152 /** \brief  Rotate Right in unsigned value (32 bit)\r
153 \r
154     This function Rotate Right (immediate) provides the value of the contents of a register rotated by a variable number of bits.\r
155 \r
156     \param [in]    value  Value to rotate\r
157     \param [in]    value  Number of Bits to rotate\r
158     \return               Rotated value\r
159  */\r
160 #define __ROR                             __ror\r
161 \r
162 \r
163 /** \brief  Breakpoint\r
164 \r
165     This function causes the processor to enter Debug state.\r
166     Debug tools can use this to investigate system state when the instruction at a particular address is reached.\r
167 \r
168     \param [in]    value  is ignored by the processor.\r
169                    If required, a debugger can use it to store additional information about the breakpoint.\r
170  */\r
171 #define __BKPT(value)                       __breakpoint(value)\r
172 \r
173 \r
174 #if       (__CORTEX_M >= 0x03)\r
175 \r
176 /** \brief  Reverse bit order of value\r
177 \r
178     This function reverses the bit order of the given value.\r
179 \r
180     \param [in]    value  Value to reverse\r
181     \return               Reversed value\r
182  */\r
183 #define __RBIT                            __rbit\r
184 \r
185 \r
186 /** \brief  LDR Exclusive (8 bit)\r
187 \r
188     This function performs a exclusive LDR command for 8 bit value.\r
189 \r
190     \param [in]    ptr  Pointer to data\r
191     \return             value of type uint8_t at (*ptr)\r
192  */\r
193 #define __LDREXB(ptr)                     ((uint8_t ) __ldrex(ptr))\r
194 \r
195 \r
196 /** \brief  LDR Exclusive (16 bit)\r
197 \r
198     This function performs a exclusive LDR command for 16 bit values.\r
199 \r
200     \param [in]    ptr  Pointer to data\r
201     \return        value of type uint16_t at (*ptr)\r
202  */\r
203 #define __LDREXH(ptr)                     ((uint16_t) __ldrex(ptr))\r
204 \r
205 \r
206 /** \brief  LDR Exclusive (32 bit)\r
207 \r
208     This function performs a exclusive LDR command for 32 bit values.\r
209 \r
210     \param [in]    ptr  Pointer to data\r
211     \return        value of type uint32_t at (*ptr)\r
212  */\r
213 #define __LDREXW(ptr)                     ((uint32_t ) __ldrex(ptr))\r
214 \r
215 \r
216 /** \brief  STR Exclusive (8 bit)\r
217 \r
218     This function performs a exclusive STR command for 8 bit values.\r
219 \r
220     \param [in]  value  Value to store\r
221     \param [in]    ptr  Pointer to location\r
222     \return          0  Function succeeded\r
223     \return          1  Function failed\r
224  */\r
225 #define __STREXB(value, ptr)              __strex(value, ptr)\r
226 \r
227 \r
228 /** \brief  STR Exclusive (16 bit)\r
229 \r
230     This function performs a exclusive STR command for 16 bit values.\r
231 \r
232     \param [in]  value  Value to store\r
233     \param [in]    ptr  Pointer to location\r
234     \return          0  Function succeeded\r
235     \return          1  Function failed\r
236  */\r
237 #define __STREXH(value, ptr)              __strex(value, ptr)\r
238 \r
239 \r
240 /** \brief  STR Exclusive (32 bit)\r
241 \r
242     This function performs a exclusive STR command for 32 bit values.\r
243 \r
244     \param [in]  value  Value to store\r
245     \param [in]    ptr  Pointer to location\r
246     \return          0  Function succeeded\r
247     \return          1  Function failed\r
248  */\r
249 #define __STREXW(value, ptr)              __strex(value, ptr)\r
250 \r
251 \r
252 /** \brief  Remove the exclusive lock\r
253 \r
254     This function removes the exclusive lock which is created by LDREX.\r
255 \r
256  */\r
257 #define __CLREX                           __clrex\r
258 \r
259 \r
260 /** \brief  Signed Saturate\r
261 \r
262     This function saturates a signed value.\r
263 \r
264     \param [in]  value  Value to be saturated\r
265     \param [in]    sat  Bit position to saturate to (1..32)\r
266     \return             Saturated value\r
267  */\r
268 #define __SSAT                            __ssat\r
269 \r
270 \r
271 /** \brief  Unsigned Saturate\r
272 \r
273     This function saturates an unsigned value.\r
274 \r
275     \param [in]  value  Value to be saturated\r
276     \param [in]    sat  Bit position to saturate to (0..31)\r
277     \return             Saturated value\r
278  */\r
279 #define __USAT                            __usat\r
280 \r
281 \r
282 /** \brief  Count leading zeros\r
283 \r
284     This function counts the number of leading zeros of a data value.\r
285 \r
286     \param [in]  value  Value to count the leading zeros\r
287     \return             number of leading zeros in value\r
288  */\r
289 #define __CLZ                             __clz\r
290 \r
291 #endif /* (__CORTEX_M >= 0x03) */\r
292 \r
293 \r
294 \r
295 #elif defined ( __ICCARM__ ) /*------------------ ICC Compiler -------------------*/\r
296 /* IAR iccarm specific functions */\r
297 \r
298 #include <cmsis_iar.h>\r
299 \r
300 \r
301 #elif defined ( __TMS470__ ) /*---------------- TI CCS Compiler ------------------*/\r
302 /* TI CCS specific functions */\r
303 \r
304 #include <cmsis_ccs.h>\r
305 \r
306 \r
307 #elif defined ( __GNUC__ ) /*------------------ GNU Compiler ---------------------*/\r
308 /* GNU gcc specific functions */\r
309 \r
310 /* Define macros for porting to both thumb1 and thumb2.\r
311  * For thumb1, use low register (r0-r7), specified by constrant "l"\r
312  * Otherwise, use general registers, specified by constrant "r" */\r
313 #if defined (__thumb__) && !defined (__thumb2__)\r
314 #define __CMSIS_GCC_OUT_REG(r) "=l" (r)\r
315 #define __CMSIS_GCC_USE_REG(r) "l" (r)\r
316 #else\r
317 #define __CMSIS_GCC_OUT_REG(r) "=r" (r)\r
318 #define __CMSIS_GCC_USE_REG(r) "r" (r)\r
319 #endif\r
320 \r
321 /** \brief  No Operation\r
322 \r
323     No Operation does nothing. This instruction can be used for code alignment purposes.\r
324  */\r
325 __attribute__( ( always_inline ) ) __STATIC_INLINE void __NOP(void)\r
326 {\r
327   __ASM volatile ("nop");\r
328 }\r
329 \r
330 \r
331 /** \brief  Wait For Interrupt\r
332 \r
333     Wait For Interrupt is a hint instruction that suspends execution\r
334     until one of a number of events occurs.\r
335  */\r
336 __attribute__( ( always_inline ) ) __STATIC_INLINE void __WFI(void)\r
337 {\r
338   __ASM volatile ("wfi");\r
339 }\r
340 \r
341 \r
342 /** \brief  Wait For Event\r
343 \r
344     Wait For Event is a hint instruction that permits the processor to enter\r
345     a low-power state until one of a number of events occurs.\r
346  */\r
347 __attribute__( ( always_inline ) ) __STATIC_INLINE void __WFE(void)\r
348 {\r
349   __ASM volatile ("wfe");\r
350 }\r
351 \r
352 \r
353 /** \brief  Send Event\r
354 \r
355     Send Event is a hint instruction. It causes an event to be signaled to the CPU.\r
356  */\r
357 __attribute__( ( always_inline ) ) __STATIC_INLINE void __SEV(void)\r
358 {\r
359   __ASM volatile ("sev");\r
360 }\r
361 \r
362 \r
363 /** \brief  Instruction Synchronization Barrier\r
364 \r
365     Instruction Synchronization Barrier flushes the pipeline in the processor,\r
366     so that all instructions following the ISB are fetched from cache or\r
367     memory, after the instruction has been completed.\r
368  */\r
369 __attribute__( ( always_inline ) ) __STATIC_INLINE void __ISB(void)\r
370 {\r
371   __ASM volatile ("isb");\r
372 }\r
373 \r
374 \r
375 /** \brief  Data Synchronization Barrier\r
376 \r
377     This function acts as a special kind of Data Memory Barrier.\r
378     It completes when all explicit memory accesses before this instruction complete.\r
379  */\r
380 __attribute__( ( always_inline ) ) __STATIC_INLINE void __DSB(void)\r
381 {\r
382   __ASM volatile ("dsb");\r
383 }\r
384 \r
385 \r
386 /** \brief  Data Memory Barrier\r
387 \r
388     This function ensures the apparent order of the explicit memory operations before\r
389     and after the instruction, without ensuring their completion.\r
390  */\r
391 __attribute__( ( always_inline ) ) __STATIC_INLINE void __DMB(void)\r
392 {\r
393   __ASM volatile ("dmb");\r
394 }\r
395 \r
396 \r
397 /** \brief  Reverse byte order (32 bit)\r
398 \r
399     This function reverses the byte order in integer value.\r
400 \r
401     \param [in]    value  Value to reverse\r
402     \return               Reversed value\r
403  */\r
404 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __REV(uint32_t value)\r
405 {\r
406 #if (__GNUC__ > 4) || (__GNUC__ == 4 && __GNUC_MINOR__ >= 5)\r
407   return __builtin_bswap32(value);\r
408 #else\r
409   uint32_t result;\r
410 \r
411   __ASM volatile ("rev %0, %1" : __CMSIS_GCC_OUT_REG (result) : __CMSIS_GCC_USE_REG (value) );\r
412   return(result);\r
413 #endif\r
414 }\r
415 \r
416 \r
417 /** \brief  Reverse byte order (16 bit)\r
418 \r
419     This function reverses the byte order in two unsigned short values.\r
420 \r
421     \param [in]    value  Value to reverse\r
422     \return               Reversed value\r
423  */\r
424 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __REV16(uint32_t value)\r
425 {\r
426   uint32_t result;\r
427 \r
428   __ASM volatile ("rev16 %0, %1" : __CMSIS_GCC_OUT_REG (result) : __CMSIS_GCC_USE_REG (value) );\r
429   return(result);\r
430 }\r
431 \r
432 \r
433 /** \brief  Reverse byte order in signed short value\r
434 \r
435     This function reverses the byte order in a signed short value with sign extension to integer.\r
436 \r
437     \param [in]    value  Value to reverse\r
438     \return               Reversed value\r
439  */\r
440 __attribute__( ( always_inline ) ) __STATIC_INLINE int32_t __REVSH(int32_t value)\r
441 {\r
442 #if (__GNUC__ > 4) || (__GNUC__ == 4 && __GNUC_MINOR__ >= 8)\r
443   return (short)__builtin_bswap16(value);\r
444 #else\r
445   uint32_t result;\r
446 \r
447   __ASM volatile ("revsh %0, %1" : __CMSIS_GCC_OUT_REG (result) : __CMSIS_GCC_USE_REG (value) );\r
448   return(result);\r
449 #endif\r
450 }\r
451 \r
452 \r
453 /** \brief  Rotate Right in unsigned value (32 bit)\r
454 \r
455     This function Rotate Right (immediate) provides the value of the contents of a register rotated by a variable number of bits.\r
456 \r
457     \param [in]    value  Value to rotate\r
458     \param [in]    value  Number of Bits to rotate\r
459     \return               Rotated value\r
460  */\r
461 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __ROR(uint32_t op1, uint32_t op2)\r
462 {\r
463   return (op1 >> op2) | (op1 << (32 - op2)); \r
464 }\r
465 \r
466 \r
467 /** \brief  Breakpoint\r
468 \r
469     This function causes the processor to enter Debug state.\r
470     Debug tools can use this to investigate system state when the instruction at a particular address is reached.\r
471 \r
472     \param [in]    value  is ignored by the processor.\r
473                    If required, a debugger can use it to store additional information about the breakpoint.\r
474  */\r
475 #define __BKPT(value)                       __ASM volatile ("bkpt "#value)\r
476 \r
477 \r
478 #if       (__CORTEX_M >= 0x03)\r
479 \r
480 /** \brief  Reverse bit order of value\r
481 \r
482     This function reverses the bit order of the given value.\r
483 \r
484     \param [in]    value  Value to reverse\r
485     \return               Reversed value\r
486  */\r
487 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __RBIT(uint32_t value)\r
488 {\r
489   uint32_t result;\r
490 \r
491    __ASM volatile ("rbit %0, %1" : "=r" (result) : "r" (value) );\r
492    return(result);\r
493 }\r
494 \r
495 \r
496 /** \brief  LDR Exclusive (8 bit)\r
497 \r
498     This function performs a exclusive LDR command for 8 bit value.\r
499 \r
500     \param [in]    ptr  Pointer to data\r
501     \return             value of type uint8_t at (*ptr)\r
502  */\r
503 __attribute__( ( always_inline ) ) __STATIC_INLINE uint8_t __LDREXB(volatile uint8_t *addr)\r
504 {\r
505     uint32_t result;\r
506 \r
507 #if (__GNUC__ > 4) || (__GNUC__ == 4 && __GNUC_MINOR__ >= 8)\r
508    __ASM volatile ("ldrexb %0, %1" : "=r" (result) : "Q" (*addr) );\r
509 #else\r
510     /* Prior to GCC 4.8, "Q" will be expanded to [rx, #0] which is not\r
511        accepted by assembler. So has to use following less efficient pattern.\r
512     */\r
513    __ASM volatile ("ldrexb %0, [%1]" : "=r" (result) : "r" (addr) : "memory" );\r
514 #endif\r
515    return(result);\r
516 }\r
517 \r
518 \r
519 /** \brief  LDR Exclusive (16 bit)\r
520 \r
521     This function performs a exclusive LDR command for 16 bit values.\r
522 \r
523     \param [in]    ptr  Pointer to data\r
524     \return        value of type uint16_t at (*ptr)\r
525  */\r
526 __attribute__( ( always_inline ) ) __STATIC_INLINE uint16_t __LDREXH(volatile uint16_t *addr)\r
527 {\r
528     uint32_t result;\r
529 \r
530 #if (__GNUC__ > 4) || (__GNUC__ == 4 && __GNUC_MINOR__ >= 8)\r
531    __ASM volatile ("ldrexh %0, %1" : "=r" (result) : "Q" (*addr) );\r
532 #else\r
533     /* Prior to GCC 4.8, "Q" will be expanded to [rx, #0] which is not\r
534        accepted by assembler. So has to use following less efficient pattern.\r
535     */\r
536    __ASM volatile ("ldrexh %0, [%1]" : "=r" (result) : "r" (addr) : "memory" );\r
537 #endif\r
538    return(result);\r
539 }\r
540 \r
541 \r
542 /** \brief  LDR Exclusive (32 bit)\r
543 \r
544     This function performs a exclusive LDR command for 32 bit values.\r
545 \r
546     \param [in]    ptr  Pointer to data\r
547     \return        value of type uint32_t at (*ptr)\r
548  */\r
549 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __LDREXW(volatile uint32_t *addr)\r
550 {\r
551     uint32_t result;\r
552 \r
553    __ASM volatile ("ldrex %0, %1" : "=r" (result) : "Q" (*addr) );\r
554    return(result);\r
555 }\r
556 \r
557 \r
558 /** \brief  STR Exclusive (8 bit)\r
559 \r
560     This function performs a exclusive STR command for 8 bit values.\r
561 \r
562     \param [in]  value  Value to store\r
563     \param [in]    ptr  Pointer to location\r
564     \return          0  Function succeeded\r
565     \return          1  Function failed\r
566  */\r
567 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __STREXB(uint8_t value, volatile uint8_t *addr)\r
568 {\r
569    uint32_t result;\r
570 \r
571    __ASM volatile ("strexb %0, %2, %1" : "=&r" (result), "=Q" (*addr) : "r" (value) );\r
572    return(result);\r
573 }\r
574 \r
575 \r
576 /** \brief  STR Exclusive (16 bit)\r
577 \r
578     This function performs a exclusive STR command for 16 bit values.\r
579 \r
580     \param [in]  value  Value to store\r
581     \param [in]    ptr  Pointer to location\r
582     \return          0  Function succeeded\r
583     \return          1  Function failed\r
584  */\r
585 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __STREXH(uint16_t value, volatile uint16_t *addr)\r
586 {\r
587    uint32_t result;\r
588 \r
589    __ASM volatile ("strexh %0, %2, %1" : "=&r" (result), "=Q" (*addr) : "r" (value) );\r
590    return(result);\r
591 }\r
592 \r
593 \r
594 /** \brief  STR Exclusive (32 bit)\r
595 \r
596     This function performs a exclusive STR command for 32 bit values.\r
597 \r
598     \param [in]  value  Value to store\r
599     \param [in]    ptr  Pointer to location\r
600     \return          0  Function succeeded\r
601     \return          1  Function failed\r
602  */\r
603 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __STREXW(uint32_t value, volatile uint32_t *addr)\r
604 {\r
605    uint32_t result;\r
606 \r
607    __ASM volatile ("strex %0, %2, %1" : "=&r" (result), "=Q" (*addr) : "r" (value) );\r
608    return(result);\r
609 }\r
610 \r
611 \r
612 /** \brief  Remove the exclusive lock\r
613 \r
614     This function removes the exclusive lock which is created by LDREX.\r
615 \r
616  */\r
617 __attribute__( ( always_inline ) ) __STATIC_INLINE void __CLREX(void)\r
618 {\r
619   __ASM volatile ("clrex" ::: "memory");\r
620 }\r
621 \r
622 \r
623 /** \brief  Signed Saturate\r
624 \r
625     This function saturates a signed value.\r
626 \r
627     \param [in]  value  Value to be saturated\r
628     \param [in]    sat  Bit position to saturate to (1..32)\r
629     \return             Saturated value\r
630  */\r
631 #define __SSAT(ARG1,ARG2) \\r
632 ({                          \\r
633   uint32_t __RES, __ARG1 = (ARG1); \\r
634   __ASM ("ssat %0, %1, %2" : "=r" (__RES) :  "I" (ARG2), "r" (__ARG1) ); \\r
635   __RES; \\r
636  })\r
637 \r
638 \r
639 /** \brief  Unsigned Saturate\r
640 \r
641     This function saturates an unsigned value.\r
642 \r
643     \param [in]  value  Value to be saturated\r
644     \param [in]    sat  Bit position to saturate to (0..31)\r
645     \return             Saturated value\r
646  */\r
647 #define __USAT(ARG1,ARG2) \\r
648 ({                          \\r
649   uint32_t __RES, __ARG1 = (ARG1); \\r
650   __ASM ("usat %0, %1, %2" : "=r" (__RES) :  "I" (ARG2), "r" (__ARG1) ); \\r
651   __RES; \\r
652  })\r
653 \r
654 \r
655 /** \brief  Count leading zeros\r
656 \r
657     This function counts the number of leading zeros of a data value.\r
658 \r
659     \param [in]  value  Value to count the leading zeros\r
660     \return             number of leading zeros in value\r
661  */\r
662 __attribute__( ( always_inline ) ) __STATIC_INLINE uint8_t __CLZ(uint32_t value)\r
663 {\r
664    uint32_t result;\r
665 \r
666   __ASM volatile ("clz %0, %1" : "=r" (result) : "r" (value) );\r
667   return(result);\r
668 }\r
669 \r
670 #endif /* (__CORTEX_M >= 0x03) */\r
671 \r
672 \r
673 \r
674 \r
675 #elif defined ( __TASKING__ ) /*------------------ TASKING Compiler --------------*/\r
676 /* TASKING carm specific functions */\r
677 \r
678 /*\r
679  * The CMSIS functions have been implemented as intrinsics in the compiler.\r
680  * Please use "carm -?i" to get an up to date list of all intrinsics,\r
681  * Including the CMSIS ones.\r
682  */\r
683 \r
684 #endif\r
685 \r
686 /*@}*/ /* end of group CMSIS_Core_InstructionInterface */\r
687 \r
688 #endif /* __CORE_CMINSTR_H */\r