]> git.sur5r.net Git - freertos/blob - FreeRTOS/Demo/CORTEX_M7_SAMV71_Xplained/libchip_samv7/include/cmsis/CMSIS/Include/core_cm4_simd.h
Update version number ready for V8.2.1 release.
[freertos] / FreeRTOS / Demo / CORTEX_M7_SAMV71_Xplained / libchip_samv7 / include / cmsis / CMSIS / Include / core_cm4_simd.h
1 /**************************************************************************//**\r
2  * @file     core_cm4_simd.h\r
3  * @brief    CMSIS Cortex-M4 SIMD Header File\r
4  * @version  V3.30\r
5  * @date     17. February 2014\r
6  *\r
7  * @note\r
8  *\r
9  ******************************************************************************/\r
10 /* Copyright (c) 2009 - 2014 ARM LIMITED\r
11 \r
12    All rights reserved.\r
13    Redistribution and use in source and binary forms, with or without\r
14    modification, are permitted provided that the following conditions are met:\r
15    - Redistributions of source code must retain the above copyright\r
16      notice, this list of conditions and the following disclaimer.\r
17    - Redistributions in binary form must reproduce the above copyright\r
18      notice, this list of conditions and the following disclaimer in the\r
19      documentation and/or other materials provided with the distribution.\r
20    - Neither the name of ARM nor the names of its contributors may be used\r
21      to endorse or promote products derived from this software without\r
22      specific prior written permission.\r
23    *\r
24    THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"\r
25    AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE\r
26    IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE\r
27    ARE DISCLAIMED. IN NO EVENT SHALL COPYRIGHT HOLDERS AND CONTRIBUTORS BE\r
28    LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR\r
29    CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF\r
30    SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS\r
31    INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN\r
32    CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)\r
33    ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE\r
34    POSSIBILITY OF SUCH DAMAGE.\r
35    ---------------------------------------------------------------------------*/\r
36 \r
37 \r
38 #if defined ( __ICCARM__ )\r
39  #pragma system_include  /* treat file as system include file for MISRA check */\r
40 #endif\r
41 \r
42 #ifndef __CORE_CM4_SIMD_H\r
43 #define __CORE_CM4_SIMD_H\r
44 \r
45 #ifdef __cplusplus\r
46  extern "C" {\r
47 #endif\r
48 \r
49 \r
50 /*******************************************************************************\r
51  *                Hardware Abstraction Layer\r
52  ******************************************************************************/\r
53 \r
54 \r
55 /* ###################  Compiler specific Intrinsics  ########################### */\r
56 /** \defgroup CMSIS_SIMD_intrinsics CMSIS SIMD Intrinsics\r
57   Access to dedicated SIMD instructions\r
58   @{\r
59 */\r
60 \r
61 #if   defined ( __CC_ARM ) /*------------------RealView Compiler -----------------*/\r
62 /* ARM armcc specific functions */\r
63 #define __SADD8                           __sadd8\r
64 #define __QADD8                           __qadd8\r
65 #define __SHADD8                          __shadd8\r
66 #define __UADD8                           __uadd8\r
67 #define __UQADD8                          __uqadd8\r
68 #define __UHADD8                          __uhadd8\r
69 #define __SSUB8                           __ssub8\r
70 #define __QSUB8                           __qsub8\r
71 #define __SHSUB8                          __shsub8\r
72 #define __USUB8                           __usub8\r
73 #define __UQSUB8                          __uqsub8\r
74 #define __UHSUB8                          __uhsub8\r
75 #define __SADD16                          __sadd16\r
76 #define __QADD16                          __qadd16\r
77 #define __SHADD16                         __shadd16\r
78 #define __UADD16                          __uadd16\r
79 #define __UQADD16                         __uqadd16\r
80 #define __UHADD16                         __uhadd16\r
81 #define __SSUB16                          __ssub16\r
82 #define __QSUB16                          __qsub16\r
83 #define __SHSUB16                         __shsub16\r
84 #define __USUB16                          __usub16\r
85 #define __UQSUB16                         __uqsub16\r
86 #define __UHSUB16                         __uhsub16\r
87 #define __SASX                            __sasx\r
88 #define __QASX                            __qasx\r
89 #define __SHASX                           __shasx\r
90 #define __UASX                            __uasx\r
91 #define __UQASX                           __uqasx\r
92 #define __UHASX                           __uhasx\r
93 #define __SSAX                            __ssax\r
94 #define __QSAX                            __qsax\r
95 #define __SHSAX                           __shsax\r
96 #define __USAX                            __usax\r
97 #define __UQSAX                           __uqsax\r
98 #define __UHSAX                           __uhsax\r
99 #define __USAD8                           __usad8\r
100 #define __USADA8                          __usada8\r
101 #define __SSAT16                          __ssat16\r
102 #define __USAT16                          __usat16\r
103 #define __UXTB16                          __uxtb16\r
104 #define __UXTAB16                         __uxtab16\r
105 #define __SXTB16                          __sxtb16\r
106 #define __SXTAB16                         __sxtab16\r
107 #define __SMUAD                           __smuad\r
108 #define __SMUADX                          __smuadx\r
109 #define __SMLAD                           __smlad\r
110 #define __SMLADX                          __smladx\r
111 #define __SMLALD                          __smlald\r
112 #define __SMLALDX                         __smlaldx\r
113 #define __SMUSD                           __smusd\r
114 #define __SMUSDX                          __smusdx\r
115 #define __SMLSD                           __smlsd\r
116 #define __SMLSDX                          __smlsdx\r
117 #define __SMLSLD                          __smlsld\r
118 #define __SMLSLDX                         __smlsldx\r
119 #define __SEL                             __sel\r
120 #define __QADD                            __qadd\r
121 #define __QSUB                            __qsub\r
122 \r
123 #define __PKHBT(ARG1,ARG2,ARG3)          ( ((((uint32_t)(ARG1))          ) & 0x0000FFFFUL) |  \\r
124                                            ((((uint32_t)(ARG2)) << (ARG3)) & 0xFFFF0000UL)  )\r
125 \r
126 #define __PKHTB(ARG1,ARG2,ARG3)          ( ((((uint32_t)(ARG1))          ) & 0xFFFF0000UL) |  \\r
127                                            ((((uint32_t)(ARG2)) >> (ARG3)) & 0x0000FFFFUL)  )\r
128 \r
129 #define __SMMLA(ARG1,ARG2,ARG3)          ( (int32_t)((((int64_t)(ARG1) * (ARG2)) + \\r
130                                                       ((int64_t)(ARG3) << 32)      ) >> 32))\r
131 \r
132 \r
133 #elif defined ( __GNUC__ ) /*------------------ GNU Compiler ---------------------*/\r
134 /* GNU gcc specific functions */\r
135 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SADD8(uint32_t op1, uint32_t op2)\r
136 {\r
137   uint32_t result;\r
138 \r
139   __ASM volatile ("sadd8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
140   return(result);\r
141 }\r
142 \r
143 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __QADD8(uint32_t op1, uint32_t op2)\r
144 {\r
145   uint32_t result;\r
146 \r
147   __ASM volatile ("qadd8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
148   return(result);\r
149 }\r
150 \r
151 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SHADD8(uint32_t op1, uint32_t op2)\r
152 {\r
153   uint32_t result;\r
154 \r
155   __ASM volatile ("shadd8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
156   return(result);\r
157 }\r
158 \r
159 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UADD8(uint32_t op1, uint32_t op2)\r
160 {\r
161   uint32_t result;\r
162 \r
163   __ASM volatile ("uadd8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
164   return(result);\r
165 }\r
166 \r
167 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UQADD8(uint32_t op1, uint32_t op2)\r
168 {\r
169   uint32_t result;\r
170 \r
171   __ASM volatile ("uqadd8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
172   return(result);\r
173 }\r
174 \r
175 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UHADD8(uint32_t op1, uint32_t op2)\r
176 {\r
177   uint32_t result;\r
178 \r
179   __ASM volatile ("uhadd8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
180   return(result);\r
181 }\r
182 \r
183 \r
184 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SSUB8(uint32_t op1, uint32_t op2)\r
185 {\r
186   uint32_t result;\r
187 \r
188   __ASM volatile ("ssub8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
189   return(result);\r
190 }\r
191 \r
192 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __QSUB8(uint32_t op1, uint32_t op2)\r
193 {\r
194   uint32_t result;\r
195 \r
196   __ASM volatile ("qsub8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
197   return(result);\r
198 }\r
199 \r
200 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SHSUB8(uint32_t op1, uint32_t op2)\r
201 {\r
202   uint32_t result;\r
203 \r
204   __ASM volatile ("shsub8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
205   return(result);\r
206 }\r
207 \r
208 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __USUB8(uint32_t op1, uint32_t op2)\r
209 {\r
210   uint32_t result;\r
211 \r
212   __ASM volatile ("usub8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
213   return(result);\r
214 }\r
215 \r
216 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UQSUB8(uint32_t op1, uint32_t op2)\r
217 {\r
218   uint32_t result;\r
219 \r
220   __ASM volatile ("uqsub8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
221   return(result);\r
222 }\r
223 \r
224 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UHSUB8(uint32_t op1, uint32_t op2)\r
225 {\r
226   uint32_t result;\r
227 \r
228   __ASM volatile ("uhsub8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
229   return(result);\r
230 }\r
231 \r
232 \r
233 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SADD16(uint32_t op1, uint32_t op2)\r
234 {\r
235   uint32_t result;\r
236 \r
237   __ASM volatile ("sadd16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
238   return(result);\r
239 }\r
240 \r
241 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __QADD16(uint32_t op1, uint32_t op2)\r
242 {\r
243   uint32_t result;\r
244 \r
245   __ASM volatile ("qadd16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
246   return(result);\r
247 }\r
248 \r
249 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SHADD16(uint32_t op1, uint32_t op2)\r
250 {\r
251   uint32_t result;\r
252 \r
253   __ASM volatile ("shadd16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
254   return(result);\r
255 }\r
256 \r
257 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UADD16(uint32_t op1, uint32_t op2)\r
258 {\r
259   uint32_t result;\r
260 \r
261   __ASM volatile ("uadd16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
262   return(result);\r
263 }\r
264 \r
265 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UQADD16(uint32_t op1, uint32_t op2)\r
266 {\r
267   uint32_t result;\r
268 \r
269   __ASM volatile ("uqadd16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
270   return(result);\r
271 }\r
272 \r
273 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UHADD16(uint32_t op1, uint32_t op2)\r
274 {\r
275   uint32_t result;\r
276 \r
277   __ASM volatile ("uhadd16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
278   return(result);\r
279 }\r
280 \r
281 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SSUB16(uint32_t op1, uint32_t op2)\r
282 {\r
283   uint32_t result;\r
284 \r
285   __ASM volatile ("ssub16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
286   return(result);\r
287 }\r
288 \r
289 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __QSUB16(uint32_t op1, uint32_t op2)\r
290 {\r
291   uint32_t result;\r
292 \r
293   __ASM volatile ("qsub16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
294   return(result);\r
295 }\r
296 \r
297 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SHSUB16(uint32_t op1, uint32_t op2)\r
298 {\r
299   uint32_t result;\r
300 \r
301   __ASM volatile ("shsub16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
302   return(result);\r
303 }\r
304 \r
305 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __USUB16(uint32_t op1, uint32_t op2)\r
306 {\r
307   uint32_t result;\r
308 \r
309   __ASM volatile ("usub16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
310   return(result);\r
311 }\r
312 \r
313 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UQSUB16(uint32_t op1, uint32_t op2)\r
314 {\r
315   uint32_t result;\r
316 \r
317   __ASM volatile ("uqsub16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
318   return(result);\r
319 }\r
320 \r
321 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UHSUB16(uint32_t op1, uint32_t op2)\r
322 {\r
323   uint32_t result;\r
324 \r
325   __ASM volatile ("uhsub16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
326   return(result);\r
327 }\r
328 \r
329 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SASX(uint32_t op1, uint32_t op2)\r
330 {\r
331   uint32_t result;\r
332 \r
333   __ASM volatile ("sasx %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
334   return(result);\r
335 }\r
336 \r
337 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __QASX(uint32_t op1, uint32_t op2)\r
338 {\r
339   uint32_t result;\r
340 \r
341   __ASM volatile ("qasx %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
342   return(result);\r
343 }\r
344 \r
345 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SHASX(uint32_t op1, uint32_t op2)\r
346 {\r
347   uint32_t result;\r
348 \r
349   __ASM volatile ("shasx %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
350   return(result);\r
351 }\r
352 \r
353 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UASX(uint32_t op1, uint32_t op2)\r
354 {\r
355   uint32_t result;\r
356 \r
357   __ASM volatile ("uasx %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
358   return(result);\r
359 }\r
360 \r
361 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UQASX(uint32_t op1, uint32_t op2)\r
362 {\r
363   uint32_t result;\r
364 \r
365   __ASM volatile ("uqasx %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
366   return(result);\r
367 }\r
368 \r
369 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UHASX(uint32_t op1, uint32_t op2)\r
370 {\r
371   uint32_t result;\r
372 \r
373   __ASM volatile ("uhasx %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
374   return(result);\r
375 }\r
376 \r
377 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SSAX(uint32_t op1, uint32_t op2)\r
378 {\r
379   uint32_t result;\r
380 \r
381   __ASM volatile ("ssax %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
382   return(result);\r
383 }\r
384 \r
385 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __QSAX(uint32_t op1, uint32_t op2)\r
386 {\r
387   uint32_t result;\r
388 \r
389   __ASM volatile ("qsax %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
390   return(result);\r
391 }\r
392 \r
393 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SHSAX(uint32_t op1, uint32_t op2)\r
394 {\r
395   uint32_t result;\r
396 \r
397   __ASM volatile ("shsax %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
398   return(result);\r
399 }\r
400 \r
401 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __USAX(uint32_t op1, uint32_t op2)\r
402 {\r
403   uint32_t result;\r
404 \r
405   __ASM volatile ("usax %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
406   return(result);\r
407 }\r
408 \r
409 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UQSAX(uint32_t op1, uint32_t op2)\r
410 {\r
411   uint32_t result;\r
412 \r
413   __ASM volatile ("uqsax %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
414   return(result);\r
415 }\r
416 \r
417 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UHSAX(uint32_t op1, uint32_t op2)\r
418 {\r
419   uint32_t result;\r
420 \r
421   __ASM volatile ("uhsax %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
422   return(result);\r
423 }\r
424 \r
425 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __USAD8(uint32_t op1, uint32_t op2)\r
426 {\r
427   uint32_t result;\r
428 \r
429   __ASM volatile ("usad8 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
430   return(result);\r
431 }\r
432 \r
433 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __USADA8(uint32_t op1, uint32_t op2, uint32_t op3)\r
434 {\r
435   uint32_t result;\r
436 \r
437   __ASM volatile ("usada8 %0, %1, %2, %3" : "=r" (result) : "r" (op1), "r" (op2), "r" (op3) );\r
438   return(result);\r
439 }\r
440 \r
441 #define __SSAT16(ARG1,ARG2) \\r
442 ({                          \\r
443   uint32_t __RES, __ARG1 = (ARG1); \\r
444   __ASM ("ssat16 %0, %1, %2" : "=r" (__RES) :  "I" (ARG2), "r" (__ARG1) ); \\r
445   __RES; \\r
446  })\r
447 \r
448 #define __USAT16(ARG1,ARG2) \\r
449 ({                          \\r
450   uint32_t __RES, __ARG1 = (ARG1); \\r
451   __ASM ("usat16 %0, %1, %2" : "=r" (__RES) :  "I" (ARG2), "r" (__ARG1) ); \\r
452   __RES; \\r
453  })\r
454 \r
455 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UXTB16(uint32_t op1)\r
456 {\r
457   uint32_t result;\r
458 \r
459   __ASM volatile ("uxtb16 %0, %1" : "=r" (result) : "r" (op1));\r
460   return(result);\r
461 }\r
462 \r
463 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __UXTAB16(uint32_t op1, uint32_t op2)\r
464 {\r
465   uint32_t result;\r
466 \r
467   __ASM volatile ("uxtab16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
468   return(result);\r
469 }\r
470 \r
471 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SXTB16(uint32_t op1)\r
472 {\r
473   uint32_t result;\r
474 \r
475   __ASM volatile ("sxtb16 %0, %1" : "=r" (result) : "r" (op1));\r
476   return(result);\r
477 }\r
478 \r
479 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SXTAB16(uint32_t op1, uint32_t op2)\r
480 {\r
481   uint32_t result;\r
482 \r
483   __ASM volatile ("sxtab16 %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
484   return(result);\r
485 }\r
486 \r
487 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SMUAD  (uint32_t op1, uint32_t op2)\r
488 {\r
489   uint32_t result;\r
490 \r
491   __ASM volatile ("smuad %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
492   return(result);\r
493 }\r
494 \r
495 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SMUADX (uint32_t op1, uint32_t op2)\r
496 {\r
497   uint32_t result;\r
498 \r
499   __ASM volatile ("smuadx %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
500   return(result);\r
501 }\r
502 \r
503 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SMLAD (uint32_t op1, uint32_t op2, uint32_t op3)\r
504 {\r
505   uint32_t result;\r
506 \r
507   __ASM volatile ("smlad %0, %1, %2, %3" : "=r" (result) : "r" (op1), "r" (op2), "r" (op3) );\r
508   return(result);\r
509 }\r
510 \r
511 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SMLADX (uint32_t op1, uint32_t op2, uint32_t op3)\r
512 {\r
513   uint32_t result;\r
514 \r
515   __ASM volatile ("smladx %0, %1, %2, %3" : "=r" (result) : "r" (op1), "r" (op2), "r" (op3) );\r
516   return(result);\r
517 }\r
518 \r
519 __attribute__( ( always_inline ) ) __STATIC_INLINE uint64_t __SMLALD (uint32_t op1, uint32_t op2, uint64_t acc)\r
520 {\r
521   union llreg_u{\r
522     uint32_t w32[2];\r
523     uint64_t w64;\r
524   } llr;\r
525   llr.w64 = acc;\r
526 \r
527 #ifndef __ARMEB__   // Little endian\r
528   __ASM volatile ("smlald %0, %1, %2, %3" : "=r" (llr.w32[0]), "=r" (llr.w32[1]): "r" (op1), "r" (op2) , "0" (llr.w32[0]), "1" (llr.w32[1]) );\r
529 #else               // Big endian\r
530   __ASM volatile ("smlald %0, %1, %2, %3" : "=r" (llr.w32[1]), "=r" (llr.w32[0]): "r" (op1), "r" (op2) , "0" (llr.w32[1]), "1" (llr.w32[0]) );\r
531 #endif\r
532 \r
533   return(llr.w64);\r
534 }\r
535 \r
536 __attribute__( ( always_inline ) ) __STATIC_INLINE uint64_t __SMLALDX (uint32_t op1, uint32_t op2, uint64_t acc)\r
537 {\r
538   union llreg_u{\r
539     uint32_t w32[2];\r
540     uint64_t w64;\r
541   } llr;\r
542   llr.w64 = acc;\r
543 \r
544 #ifndef __ARMEB__   // Little endian\r
545   __ASM volatile ("smlaldx %0, %1, %2, %3" : "=r" (llr.w32[0]), "=r" (llr.w32[1]): "r" (op1), "r" (op2) , "0" (llr.w32[0]), "1" (llr.w32[1]) );\r
546 #else               // Big endian\r
547   __ASM volatile ("smlaldx %0, %1, %2, %3" : "=r" (llr.w32[1]), "=r" (llr.w32[0]): "r" (op1), "r" (op2) , "0" (llr.w32[1]), "1" (llr.w32[0]) );\r
548 #endif\r
549 \r
550   return(llr.w64);\r
551 }\r
552 \r
553 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SMUSD  (uint32_t op1, uint32_t op2)\r
554 {\r
555   uint32_t result;\r
556 \r
557   __ASM volatile ("smusd %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
558   return(result);\r
559 }\r
560 \r
561 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SMUSDX (uint32_t op1, uint32_t op2)\r
562 {\r
563   uint32_t result;\r
564 \r
565   __ASM volatile ("smusdx %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
566   return(result);\r
567 }\r
568 \r
569 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SMLSD (uint32_t op1, uint32_t op2, uint32_t op3)\r
570 {\r
571   uint32_t result;\r
572 \r
573   __ASM volatile ("smlsd %0, %1, %2, %3" : "=r" (result) : "r" (op1), "r" (op2), "r" (op3) );\r
574   return(result);\r
575 }\r
576 \r
577 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SMLSDX (uint32_t op1, uint32_t op2, uint32_t op3)\r
578 {\r
579   uint32_t result;\r
580 \r
581   __ASM volatile ("smlsdx %0, %1, %2, %3" : "=r" (result) : "r" (op1), "r" (op2), "r" (op3) );\r
582   return(result);\r
583 }\r
584 \r
585 __attribute__( ( always_inline ) ) __STATIC_INLINE uint64_t __SMLSLD (uint32_t op1, uint32_t op2, uint64_t acc)\r
586 {\r
587   union llreg_u{\r
588     uint32_t w32[2];\r
589     uint64_t w64;\r
590   } llr;\r
591   llr.w64 = acc;\r
592 \r
593 #ifndef __ARMEB__   // Little endian\r
594   __ASM volatile ("smlsld %0, %1, %2, %3" : "=r" (llr.w32[0]), "=r" (llr.w32[1]): "r" (op1), "r" (op2) , "0" (llr.w32[0]), "1" (llr.w32[1]) );\r
595 #else               // Big endian\r
596   __ASM volatile ("smlsld %0, %1, %2, %3" : "=r" (llr.w32[1]), "=r" (llr.w32[0]): "r" (op1), "r" (op2) , "0" (llr.w32[1]), "1" (llr.w32[0]) );\r
597 #endif\r
598 \r
599   return(llr.w64);\r
600 }\r
601 \r
602 __attribute__( ( always_inline ) ) __STATIC_INLINE uint64_t __SMLSLDX (uint32_t op1, uint32_t op2, uint64_t acc)\r
603 {\r
604   union llreg_u{\r
605     uint32_t w32[2];\r
606     uint64_t w64;\r
607   } llr;\r
608   llr.w64 = acc;\r
609 \r
610 #ifndef __ARMEB__   // Little endian\r
611   __ASM volatile ("smlsldx %0, %1, %2, %3" : "=r" (llr.w32[0]), "=r" (llr.w32[1]): "r" (op1), "r" (op2) , "0" (llr.w32[0]), "1" (llr.w32[1]) );\r
612 #else               // Big endian\r
613   __ASM volatile ("smlsldx %0, %1, %2, %3" : "=r" (llr.w32[1]), "=r" (llr.w32[0]): "r" (op1), "r" (op2) , "0" (llr.w32[1]), "1" (llr.w32[0]) );\r
614 #endif\r
615 \r
616   return(llr.w64);\r
617 }\r
618 \r
619 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SEL  (uint32_t op1, uint32_t op2)\r
620 {\r
621   uint32_t result;\r
622 \r
623   __ASM volatile ("sel %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
624   return(result);\r
625 }\r
626 \r
627 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __QADD(uint32_t op1, uint32_t op2)\r
628 {\r
629   uint32_t result;\r
630 \r
631   __ASM volatile ("qadd %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
632   return(result);\r
633 }\r
634 \r
635 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __QSUB(uint32_t op1, uint32_t op2)\r
636 {\r
637   uint32_t result;\r
638 \r
639   __ASM volatile ("qsub %0, %1, %2" : "=r" (result) : "r" (op1), "r" (op2) );\r
640   return(result);\r
641 }\r
642 \r
643 #define __PKHBT(ARG1,ARG2,ARG3) \\r
644 ({                          \\r
645   uint32_t __RES, __ARG1 = (ARG1), __ARG2 = (ARG2); \\r
646   __ASM ("pkhbt %0, %1, %2, lsl %3" : "=r" (__RES) :  "r" (__ARG1), "r" (__ARG2), "I" (ARG3)  ); \\r
647   __RES; \\r
648  })\r
649 \r
650 #define __PKHTB(ARG1,ARG2,ARG3) \\r
651 ({                          \\r
652   uint32_t __RES, __ARG1 = (ARG1), __ARG2 = (ARG2); \\r
653   if (ARG3 == 0) \\r
654     __ASM ("pkhtb %0, %1, %2" : "=r" (__RES) :  "r" (__ARG1), "r" (__ARG2)  ); \\r
655   else \\r
656     __ASM ("pkhtb %0, %1, %2, asr %3" : "=r" (__RES) :  "r" (__ARG1), "r" (__ARG2), "I" (ARG3)  ); \\r
657   __RES; \\r
658  })\r
659 \r
660 __attribute__( ( always_inline ) ) __STATIC_INLINE uint32_t __SMMLA (int32_t op1, int32_t op2, int32_t op3)\r
661 {\r
662  int32_t result;\r
663 \r
664  __ASM volatile ("smmla %0, %1, %2, %3" : "=r" (result): "r"  (op1), "r" (op2), "r" (op3) );\r
665  return(result);\r
666 }\r
667 \r
668 \r
669 #elif defined ( __ICCARM__ ) /*------------------ ICC Compiler -------------------*/\r
670 /* IAR iccarm specific functions */\r
671 #include <cmsis_iar.h>\r
672 \r
673 \r
674 #elif defined ( __TMS470__ ) /*---------------- TI CCS Compiler ------------------*/\r
675 /* TI CCS specific functions */\r
676 #include <cmsis_ccs.h>\r
677 \r
678 \r
679 #elif defined ( __TASKING__ ) /*------------------ TASKING Compiler --------------*/\r
680 /* TASKING carm specific functions */\r
681 /* not yet supported */\r
682 \r
683 \r
684 #elif defined ( __CSMC__ ) /*------------------ COSMIC Compiler -------------------*/\r
685 /* Cosmic specific functions */\r
686 #include <cmsis_csm.h>\r
687 \r
688 #endif\r
689 \r
690 /*@} end of group CMSIS_SIMD_intrinsics */\r
691 \r
692 \r
693 #ifdef __cplusplus\r
694 }\r
695 #endif\r
696 \r
697 #endif /* __CORE_CM4_SIMD_H */\r