文章目录

  • 前言
  • SIMD & NEON
  • NEON intrinsics
  • NEON intrinsics 学习资料
  • 寄存器
  • 向量数据类型
  • NENO intrinsics 命名方式
  • NEON Intrinsics 查询
  • 三种处理方式:Long/Wide/Narrow
  • NENO intrinsics 手册
    • Addition 向量加法
      • Vector add: vadd{q}_type. Vr[i]:=Va[i]+Vb[i]
      • Vector long add: vaddl_type. Vr[i]:=Va[i]+Vb[i]
      • Vector wide add: vaddw_type. Vr[i]:=Va[i]+Vb[i]
      • Vector halving add: vhadd{q}_type. Vr[i]:=(Va[i]+Vb[i])>>1
      • Vector rounding halving add: vrhadd{q}_type. Vr[i]:=(Va[i]+Vb[i]+1)>>1
      • VQADD: Vector saturating add
      • Vector add high half: vaddhn_type.Vr[i]:=Va[i]+Vb[i]
      • Vector rounding add high half: vraddhn_type.
    • Multiplication 向量乘法
      • Vector multiply: vmul{q}_type. Vr[i] := Va[i] * Vb[i]
      • Vector multiply accumulate: vmla{q}_type. Vr[i] := Va[i] + Vb[i] * Vc[i]
      • Vector multiply accumulate long: vmlal_type. Vr[i] := Va[i] + Vb[i] * Vc[i]
      • Vector multiply subtract: vmls{q}_type. Vr[i] := Va[i] - Vb[i] * Vc[i]
      • Vector multiply subtract long
      • Vector saturating doubling multiply high
      • Vector saturating rounding doubling multiply high
      • Vector saturating doubling multiply accumulate long
      • Vector saturating doubling multiply subtract long
      • Vector long multiply
      • Vector saturating doubling long multiply
    • Subtraction 向量减法
      • Vector subtract
      • Vector long subtract: vsubl_type. Vr[i]:=Va[i]-Vb[i]
      • Vector wide subtract: vsubw_type. Vr[i]:=Va[i]-Vb[i]
      • Vector saturating subtract
      • Vector halving subtract
      • Vector subtract high half
      • Vector rounding subtract high half
    • Comparison 向量比较
    • [Absolute difference](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Absolute-difference?lang=en) 绝对差值
      • Absolute difference between the arguments: vabd{q}_type. Vr[i] = | Va[i] - Vb[i] |
      • Absolute difference and accumulate: vaba{q}_type. Vr[i] = Va[i] + | Vb[i] - Vc[i] |
    • Max/Min 向量最大/最小
      • vmax{q}_type. Vr[i] := (Va[i] >= Vb[i]) ? Va[i] : Vb[i]
      • vmin{q}_type. Vr[i] := (Va[i] >= Vb[i]) ? Vb[i] : Va[i]
    • [Pairwise addition](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Pairwise-addition?lang=en) 成对的加法
      • Pairwise add
      • Long pairwise add and accumulate
    • [Folding maximum](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Folding-maximum?lang=en)
    • [Folding minimum](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Folding-minimum?lang=en)
    • Reciprocal/Sqrt
    • [Shifts by signed variable](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Shifts-by-signed-variable?lang=en) 根据变量值移位
      • Vector shift left: vshl{q}_type. Vr[i] := Va[i] << Vb[i] (negative values shift right)
    • [Shifts by a constant](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Shifts-by-a-constant?lang=en) 常数移位
      • Vector shift right by constant
      • Vector shift left by constant
      • Vector shift right by constant and accumulate
    • [Shifts with insert](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Shifts-with-insert?lang=en) 移位且插入
      • Vector shift right and insert
  • [Loads of a single vector or lane](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Loads-of-a-single-vector-or-lane?lang=en) 向量加载与存储
      • Load a single vector from memory
      • Load a single lane from memory
      • Load all lanes of vector with same value from memory
    • [Store a single vector or lane](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Store-a-single-vector-or-lane?lang=en)
      • Store a single vector into memory
      • Store a lane of a vector into memory
    • [Loads of an N-element structure](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Loads-of-an-N-element-structure?lang=en)
      • Load N-element structure from memory
      • Load all lanes of N-element structure with same value from memory
      • Load a single lane of N-element structure from memory
      • Store N-element structure to memory
      • Store a single lane of N-element structure to memory
    • [Extract lanes from a vector and put into a register](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Extract-lanes-from-a-vector-and-put-into-a-register?lang=en)
    • [Load a single lane of a vector from a literal](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Load-a-single-lane-of-a-vector-from-a-literal?lang=en)
    • [Initialize a vector from a literal bit pattern](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Initialize-a-vector-from-a-literal-bit-pattern?lang=en)
    • [Set all lanes to same value](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Set-all-lanes-to-same-value?lang=en)
      • Load all lanes of vector to the same literal value
      • Load all lanes of the vector to the value of a lane of a vector
    • [Combining vectors](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Combining-vectors?lang=en) 合并向量
    • [Splitting vectors](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Splitting-vectors?lang=en) 分解向量
    • [Converting vectors](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Converting-vectors?lang=en) 向量类型转换
    • [Table look up](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Table-look-up?lang=en) 查表
    • [Operations with a scalar value](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Operations-with-a-scalar-value?lang=en)
      • Vector multiply accumulate with scalar
      • Vector multiply by scalar
      • Vector multiply subtract with scalar
    • [Vector extract](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Vector-extract?lang=en) 向量提取
    • [Reverse vector elements (swap endianness)](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Reverse-vector-elements--swap-endianness-?lang=en)
    • [Other single operand arithmetic](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Other-single-operand-arithmetic?lang=en)
      • Absolute: vabs{q}_type. Vd[i] = |Va[i]|
      • Negate: vneg{q}_type. Vd[i] = - Va[i]
      • Count leading sign bits
      • Count leading zeros
      • Count number of set bits
      • Reciprocal estimate
      • Reciprocal square root estimate
    • [Logical operations](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Logical-operations?lang=en) 逻辑操作
      • Bitwise not
      • Bitwise and
      • Bitwise or
      • Bitwise exclusive or (EOR or XOR)
      • Bit Clear
      • Bitwise OR complement
    • [Transposition operations](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Transposition-operations?lang=en)
      • Transpose elements
      • Interleave elements
      • De-Interleave elements
    • [Vector reinterpret cast operations](https://developer.arm.com/documentation/dui0491/i/Using-NEON-Support/Vector-reinterpret-cast-operations?lang=en)
  • 总结
  • 参考

前言

本文旨在向 NEON 新手提供入门指导,以便能够快速入门 NEON。NEON 作为一种底层的技术,学习曲线相当陡峭,本教程将扫平你在入门期间的各类疑问,并结合大量习题让你能够真正的入门 NEON。

SIMD & NEON

SIMD(Single Instruction,Multiple Data)即单指令多数据。简而言之,它是对指令集的一种扩展,可以对多个数值进行相同操作。

NEON 是指适用于 Arm Cortex-A系列处理器的一种高级 SIMD(单指令多数据)扩展指令集。

我为什么要学习 NEON,原因有:

  1. 本人熟悉的音频 DSP 算法,可以通过 SIMD 技术进行加速,使其性能提升
  2. ARM 架构在移动端(Android/iOS 等)设备上已经是统治级别,如果想让这些算法在移动端上有更好的表现,那么就必须学习 NEON
  3. SIMD 技术很酷,通过 NEON 我可以了解到 SIMD 的编程范式。学习一样新东西,本身就很有趣。

NEON intrinsics

那么我们如何才能使用上 NEON 呢?你可以在 C/C++ 代码中嵌入 NEON 汇编代码,这种方式难度非常高,你需要对寄存器、汇编等技术很熟悉,对于新手简直是劝退。幸运的是,你还有 NEON intrinsics 可以选择。

NEON intrinsics 其实就是一组 c 函数,你可以通过调用它们来实现 SIMD,让你的算法更加高效。作为新手,我们以 NEON intrinsics 为入口,一起来窥探 SIMD 奇妙的世界是非常合适的。

经过对 NEON intrinsics 一段时间的学习,大致掌握了 NEON intrinsics 一些基本使用,于是乎赶紧总结一下,防止日后忘记,同时也给各位看官作为学习的参考。

NEON intrinsics 学习资料

推荐几个自己在学习过程中找到的不错的资料。

  1. Learn the architecture - Optimizing C code with Neon intrinsics,推荐第一个读它,内容较少,语言精练。如果你对其中一些知识点不太清楚,没有关系,通读我这篇博客,相信能够轻松解决你的疑问。
  2. Learn the architecture - Neon programmers’ guide,在「Introduction」部分对 SIMD&NEON 原理做了很详细的介绍,对寄存器也做了说明;「NEON Intrinsics」章节介绍了很多 NEON Intrinsics 用法;中文翻译版本在 NEON码农指导 Chapter 1 : Introduction
  3. ARM Compiler toolchain Compiler Reference Version 5.03,其中 「Using NEON Support」非常详细,对 NEON Intrinsics 做了详细的分类和总结,推荐阅读。
  4. ARM NEON for C++ Developers,相当详细地介绍了 NEON Intrinsics 各种用法。
  5. neon-guide,简要的 neon 教程,内容简练。

寄存器

SIMD 提速的原理在于寄存器,在 Introducing NEON Development Article 中提到:

一些现代软件,尤其是多媒体编解码软件和图形加速软件,有大量的少于机器字长的数据参与运算。例如,在音频应用中16位以内数据是频繁的,在图形与视频领域8位以内数据是频繁的。
当在32位微处理器上执行这些操作时,相当一部分计算单元没有被利用,但是依然消耗着计算资源。为了更好的利用这部分闲置的资源,SIMD技术使用一个单指令来并行地在同样类型和大小的多个数据元素上执行相同的操作。通过这种方法,硬件可以在同样时间消耗内用并行的4个8位数值加法运算来替代通常的两个32位数值加法运算。

在 Arm NEON programming quick reference 和 Learn the architecture - Neon programmers’ guide 中对 ARM 架构的寄存器做了较为详细的介绍。总结起来为:

  • Armv7-A/AArch32

    • 有 16 个 32bit 的通用寄存器(R0-R15)
    • 有 32 个 64bit 的 NEON 寄存器(D0-D31);它们也可以被看成是 16 个 128bit NEON 寄存器(Q0-Q15);每个 Q 寄存器对应两个 D 寄存器,匹配关系如下图
  • Armv8/AArch64
    • 有 31 个 64bit 的通用寄存器(X0-X30);此外还有上一个特殊的寄存器,该寄存器的名字取决于当前运行环境
    • 有 32 个 128bit 的 NEON 寄存器(V0-V31);它们也可以被看成是 32bit 的 Sn 寄存器或者 64bit 的 Dn 寄存器

向量数据类型

在 NEON 中有非常多向量数据类型,具体的列表你可以在 Vector data types 中找到。

它们有着统一的命名范式规则:

 <type><size>x<number of lanes>_t
  • type,向量中存放数据的类型,包括:

    • int,有符号整形
    • uint,无符号整形
    • float,浮点
    • poly,关于这种类型的介绍,请参考 这里
  • size,即 type 的 bit 长度,例如 float32,表示 32 bit 的 float 类型、int64 表示 64bit 的 int,以此类推
  • number of lanes,通道数,即有多少个数据,例如 float32x4_t,有 4 个 float32

其实这些向量数据类型,你可以认为就是一个数组,类比到 c++ 中的std::array,例如

int16x8_t   < == > std::array<int16_t, 8>
uint64x2_t  < == > std::array<int64_t, 2>
float32x4_t < == > std::array<float, 4>

这些数据类型是为了填满一个寄存器的,所以它们总的 bit 长度要么是 64 或者 128。假设一个 float32x4_t 的向量,其值为 {0, 1, 2, 3},那么它们在寄存器总存放的顺序如下图:

你可以像获取数组中的值一样来获取这些向量里的值,例如:

float32x4_t a{1.0, 2.0, 3.0f, 4.0};
printf("%lf %lf %lf %lf\n", a[0], a[1], a[2], a[3]);

至于 Lanes ,我们可以理解为数组下标,在后面的 NEON intrinsics 函数介绍中你经常会看到 lanes 这个词。

NENO intrinsics 命名方式

前面提到 NENO intrinsics 其实就是一堆的 C 函数,作为新手,我第一次看到这些函数的时候是有点懵的,因为它们的命名方式过于抽象了,需要经过一些查询才能大致得知其意思。其大致符合这样的规则:

<opname><flags>_<type>

举几个例子:

  • vmul_s16,将两个 s16 的向量相乘
  • vaddl_u8,将两个 u8 的向量相加

在 Program-conventions 介绍了更加详细的规则,令人眼花缭乱。了解命名规则有助于我们快速理解 intrinsic 的含义,但作为新人我觉得不必要过于纠结,我们完全可以通过对 intrinsics doc 进行查询,快速的掌握这些神奇函数的性质。至于命名规则,你用熟了、看多了,自然也能猜到一二。

NEON Intrinsics 查询

你可以登入 Intrinsics 进行查询。那么如何看懂查询的结果呢?这里说一下自己的经验。

对于一个函数,我们在意的内容包括:

  • 输入是什么?即参数有哪些。
  • 输出时什么?即返回的数据类型是怎么样的。
  • 函数的行为是怎样的?即函数做了哪些操作。

vaddq_f32 为例,查询结果如下图。我们对照着该图做

  • Arguments,参数是两个 float32x4_t,分别是 ab
  • Return Type,返回一个 float32x4_t
  • Description,描述了该函数的行为:“Floating-point Add (vector). 这条指令将两个源SIMD&FP寄存器中相应的向量元素相加,将结果写入向量中,并将向量写入目标SIMD&FP寄存器。这条指令中所有的值都是浮点值。”
  • Instruction Group,所属类别
  • This intrinsic compiles to the following instructions,该函数将被编译成如下指令:FADD Vd.4S,Vn.4S,Vm.4S。即对 Vm 和 Vn 寄存器中 4 个 float 做 FADD 操作,然后将结果存放在 Vd 中
  • Argument Preparation,参数 a 放在 Vn 寄存器,参数 b 放在 Vm 寄存器中
  • Architectures,该函数在 v7、A32、A64 架构下可用
  • Operation,即该指令的具体操作,你通过这部分内容可以大致的了解指令的算法流程,它类似伪代码,并不难理解。在遇到一些奇怪的指令时,仅仅通过 Description 可能无法知晓它的作用,这时候你可以来看 Operation。

三种处理方式:Long/Wide/Narrow

NEON 指令通常有 Normal、Long、Wide 和 Narrow 之分。

  • Normal,指令的输入与输出数据有相同 bit 宽度,例如 vaddq_f32,结果为 float32x4_t,输出为 float32x4_t,都是 128-bit。
  • Long,指令对 64-bit 数据进行操作,产生 128-bit 向量结果,结果宽度是输入的两倍,并且类型相同。此类指令在 NEON Intrinsics 中通过 “l” 来标识,例如 vaddl_s32,输入为 int32x2_t,输出为 int64x2_t
  • Wide,指令对一个 128-bit 向量和一个 64-bit 向量进行操作,产生一个 128-bit 向量结果。结果和第一输入向量是第二输入向量的两倍宽度。此类指令在 NEON Intrinsics 中通过 “w” 来标识,例如 vaddw_s32,输入为 int64x2_tint32x2_t,输出为 int64x2_t
  • Narrow,指令对 128-bit 向量进行操作,产生一个 64-bit 的结果,结果宽度是输入的一半。此类指令在 NEON Intrinsics 中通过 “n” 来标识,例如 vaddhn_s32,输入为 int32x4_t ,输出为 int16x4_t

NENO intrinsics 手册

在 ARM Compiler toolchain Compiler Reference Version 5.03 中对 intrinsic 做了详细的分类。本章将对各个类别的函数举例说明,帮助大家理解。

所有代码你可以直接在 Compiler Explorer 在线编辑器中运行,选择 ‘arm64’ 编译器且引入 <arm_neon.h> 即可。

Addition 向量加法

Vector add: vadd{q}_type. Vr[i]:=Va[i]+Vb[i]

c = a + b

  • vaddq_f32
float32x4_t a{1.0, 2.0, 3.0f, 4.0};
float32x4_t b{1.0, 2.0, 3.0f, 4.0};
float32x4_t c = vaddq_f32(a, b); // c: {2, 4, 6, 8}
  • vadd_u64
uint64x1_t a{1};
uint64x1_t b{2};
uint64x1_t c = vadd_u64(a, b); // c: {3}

Vector long add: vaddl_type. Vr[i]:=Va[i]+Vb[i]

Long 方式处理。Va, Vb 的通道数相同, 返回值时一个输入的两倍宽向量

  • vaddl_s32
int32x2_t a{1, 2};
int32x2_t b{1, 2};
int64x2_t c = vaddl_s32(a, b); // c: {2, 4}

Vector wide add: vaddw_type. Vr[i]:=Va[i]+Vb[i]

Wide 方式处理。Va,Vb 的通道数相同,Va 是 Vb 的两倍宽,返回值宽度与 Va 相同

  • vaddw_s32
int64x2_t a{1, 2};
int32x2_t b{1, 2};
int64x2_t c = vaddw_s32(a, b);

Vector halving add: vhadd{q}_type. Vr[i]:=(Va[i]+Vb[i])>>1

Va 与 Vb 相加,并将结果右移一位(相当于整数除 2),即 c = (a + b) >> 1

  • vhadd_s32
int32x2_t a{1, 2};
int32x2_t b{2, 3};// a + b = {3, 5}
// (a + b)/2 = {1, 2}
int32x2_t c = vhadd_s32(a, b);

Vector rounding halving add: vrhadd{q}_type. Vr[i]:=(Va[i]+Vb[i]+1)>>1

Va 与 Vb 相加,并加上 1,然后右移一位。即整数除以 2 并向上取整,即 c = (a + b + 1) >> 1

  • vrhadd_s32
int32x2_t a{1, 2};
int32x2_t b{2, 3};
int32x2_t c = vrhadd_s32(a, b);

VQADD: Vector saturating add

向量饱和加法,当计算结果可表示的最大值或者小于表示的最小值时,计算结果取值为这个最大值或最小值。

  • vqadd_s8
int8x8_t a{127, 127};
int8x8_t b{0, 1};
int8x8_t c = vqadd_s8(a, b); // c{127, 127, ....}int8x8_t e{-128, -128};
int8x8_t d{0, -1};
int8x8_t f = vqadd_s8(e, d); // f{-128, -128, ....}

Vector add high half: vaddhn_type.Vr[i]:=Va[i]+Vb[i]

Narrow 方式处理。Va 与 Vb 向量相加,去结果的高位存放在 Vr 中

int32x4_t a{0x7ffffffe, 0x7ffffffe, 0, 0};
int32x4_t b{0x00000001, 0x00000002, 0, 0};
// 0x7ffffffe + 0x00000001 = 0x7fffffff => 取高位 => 0x7fff
// 0x7ffffffe + 0x00000002 = 0x80000000 => 取高位 => 0x8000
int16x4_t c = vaddhn_s32(a, b);//c{32767 -32768 0 0}

Vector rounding add high half: vraddhn_type.

向量相加,取最高位的一半作为结果,并做四舍五入

int32x4_t a{0x7ffffffe, 0x7ffffffe, 0, 0};
int32x4_t b{0x00000001, 0x00000002, 0, 0};
// 0x7ffffffe + 0x00000001 + 0x00008000 = 0x80007fff => 取高位 => 0x8000
// 0x7ffffffe + 0x00000002 + 0x00008000 = 0x80008000 => 取高位 => 0x8000
int16x4_t c = vraddhn_s32(a, b);//c{-32768 -32768 0 0}

Multiplication 向量乘法

Vector multiply: vmul{q}_type. Vr[i] := Va[i] * Vb[i]

向量相乘,c = a*b

  • vmul_f32
float32x2_t a{1.0f, 2.0f};
float32x2_t b{2.0f, 3.0f};
float32x2_t c = vmul_f32(a, b); // c{3.0f, 6.0f}

Vector multiply accumulate: vmla{q}_type. Vr[i] := Va[i] + Vb[i] * Vc[i]

向量乘加,即 d = a + b*c

  • vmla_f32
float32x2_t a{1.0f, 2.0f};
float32x2_t b{2.0f, 3.0f};
float32x2_t c{4.0f, 5.0f};
float32x2_t d = vmla_f32(a, b, c); //c{9, 17}

Vector multiply accumulate long: vmlal_type. Vr[i] := Va[i] + Vb[i] * Vc[i]

Long 方式处理,Va 是 Vb/Vc 两倍宽,输出宽度与 Va 一致

  • vmlal_s32
int64x2_t a{1, 2};
int32x2_t b{2, 3};
int32x2_t c{4, 5};
int64x2_t d = vmlal_s32(a, b, c); //c{9, 17}

Vector multiply subtract: vmls{q}_type. Vr[i] := Va[i] - Vb[i] * Vc[i]

向量乘减,即 d = a - b*c

  • vmls_f32
float32x2_t a{1.0f, 2.0f};
float32x2_t b{2.0f, 3.0f};
float32x2_t c{4.0f, 5.0f};
float32x2_t d = vmls_f32(a, b, c);// c{-7, -13}

Vector multiply subtract long

向量乘减,Long 方式处理

  • vmlsl_s32
int64x2_t a{1, 2};
int32x2_t b{2, 3};
int32x2_t c{4, 5};
int64x2_t d = vmlsl_s32(a, b, c);// c{-7, -13}

Vector saturating doubling multiply high

ab 的相乘,将结果加倍(*2),将最终结果的最高位一半放入向量中,并将向量写入目标寄存器。

  • vqdmulh_s32
int32x2_t a{0x00020000, 0x00035000};
int32x2_t b{0x00010000, 0x00015000};
// (0x00020000 * 0x00010000)*2 = 0x400000000,  >> 32 = 0x00000004
// (0x00035000 * 0x00015000)*2 = 0x8b2000000,  >> 32 = 0x00000008
int32x2_t c = vqdmulh_s32(a, b); // c{4, 8}

Vector saturating rounding doubling multiply high

  • vqrdmulh_s32,其中 0x800000001<<31,这个值怎么来的,请参考 vqrdmulh_s32 的 Operation 部分。
int32x2_t a{0x00010000, 0x00035000};
int32x2_t b{0x00020000, 0x00015000};
// (0x00020000 * 0x00010000)*2 + 0x80000000 = 0x480000000, >> 32 = 0x00000004
// (0x00035000 * 0x00015000)*2 + 0x80000000 = 0x932000000, >> 32 = 0x00000009
int32x2_t c = vqrdmulh_s32(a, b); // c{4, 9}

Vector saturating doubling multiply accumulate long

d = a + (b*c*2) ,Long 方式处理

  • vqdmlal_s32
int64x2_t a{1, 2};
int32x2_t b{3, 4};
int32x2_t c{5, 6};
int64x2_t d = vqdmlal_s32(a, b, c); // c{31,50}

Vector saturating doubling multiply subtract long

d = a - (b*c*2) ,Long 方式处理

  • vqdmlsl_s32
int64x2_t a{1, 2};
int32x2_t b{3, 4};
int32x2_t c{5, 6};
int64x2_t d = vqdmlsl_s32(a, b, c); // c{-29,-46}

Vector long multiply

c = a*b,Long 方式处理

  • vmull_s32
int32x2_t a{1, 2};
int32x2_t b{3, 4};
int64x2_t c = vmull_s32(a, b);// c{3, 8}

Vector saturating doubling long multiply

c = 2*a*b,Long 方式处理

  • vqdmull_s32
int32x2_t a{1, 2};
int32x2_t b{3, 4};
int64x2_t c = vqdmull_s32(a, b);

Subtraction 向量减法

通过对 AdditionMultiplication 指令学习,你会发现有很多很多指令是在某个基础指令上的变种,这些变种指令操作与基础指令大同小异,后面将不再对变种指令做讲解,让我们把注意力放在更重要的指令上。

Vector subtract

向量相减,即 c = a - b

  • vsubq_f32
float32x4_t a{4,3,2,1};
float32x4_t b{1,2,3,4};
float32x4_t c = vsubq_f32(a, b); //c{3, 1, -1, -3}

Vector long subtract: vsubl_type. Vr[i]:=Va[i]-Vb[i]

向量相减,Long 方式处理。

  • vsubl_s32
int32x2_t a{4, 3};
int32x2_t b{1, 2};
int64x2_t c= vsubl_s32(a, b);//c{3,1}

Vector wide subtract: vsubw_type. Vr[i]:=Va[i]-Vb[i]

向量相减,Wide 方式处理

  • vsubw_s32
int64x2_t a{4,3};
int32x2_t b{1, 2};
int64x2_t c= vsubw_s32(a, b);//c{3,1}

Vector saturating subtract

向量饱和减法

  • vqsub_s32
int32x2_t a{0x7fffffff, 0x7fffffff};
int32x2_t b{-1, 1};
int32x2_t c = vqsub_s32(a, b); // c{0x7fffffff,0x7ffffffe}

Vector halving subtract

向量相减后除以2,即 c = (a-b)/2

  • vhsubq_s32
int32x4_t a{4,3,2,1};
int32x4_t b{0,1,2,3};
int32x4_t c = vhsubq_s32(a, b);//c{2 1 0 -1}

Vector subtract high half

向量相减,取最高位的一半作为结果

  • vsubhn_s64
int32x4_t a{0x7fffffff, 0x7fffeeee, 0,0};
int32x4_t b{0x7fff0000, 0x0000000f, 0,0};
// 0x7fffeeee - 0x0000000f = 7fffeedf => 取高位一半 = 0x7fff(32767)
int16x4_t c = vsubhn_s32(a, b);//c{0 32767 0 0}

Vector rounding subtract high half

向量相减,取最高位的一半作为结果,并做四舍五入

  • vrsubhn_s32
int32x4_t a{0x7fffffff, 0x7fffeeee, 0,0};
int32x4_t b{0x7fff0000, 0x0000000f, 0,0};
// 0x7fffffff - 0x7fff0000 + 0x00008000 = 0x00017fff => 取高位 => 0x0001
// 0x7fffeeee - 0x0000000f + 0x00008000 = 0x80006edf => 取高位 => 0x8000
int16x4_t c = vrsubhn_s32(a, b);//c{1 -32768 0 0}

Comparison 向量比较

NEON 中提供了非常多向量的比较,包括 ==、>=、<=、>,< 等等。这部分挑几个有意思的函数进行说明下

int32x2_t a{1, 2};
int32x2_t b{1, 0};
uint32x2_t c = vceq_s32(a, b); //c{0xffffffff 0}
float32x2_t a{1.0, 2.0f};
float32x2_t b{-1.0, -3.0f};
uint32x2_t c = vcage_f32(a, b); //c{0xffffffff 0}
int8x8_t a{0b00011111, 0b00010000};
int8x8_t b{0b00010000, 0b00000000};
uint8x8_t c = vtst_s8(a, b); //c{0xff 0}

Absolute difference 绝对差值

Absolute difference between the arguments: vabd{q}_type. Vr[i] = | Va[i] - Vb[i] |

向量差的绝对值,即 c = abs(a - b)

  • vabd_f32
float32x2_t a{1.0, 2.0f};
float32x2_t b{2.0, 1.0f};
float32x2_t c = vabd_f32(a, b);c{1.000000 1.000000}

Absolute difference and accumulate: vaba{q}_type. Vr[i] = Va[i] + | Vb[i] - Vc[i] |

d = a + abs(b - c)

  • vaba_s32
int32x2_t a{1,1};
int32x2_t b{1,2};
int32x2_t c{2,1};
int32x2_t d= vaba_s32(a, b, c);//c{2 2}

Max/Min 向量最大/最小

vmax{q}_type. Vr[i] := (Va[i] >= Vb[i]) ? Va[i] : Vb[i]

两个向量比较取大的那个

  • vmax_f32
float32x2_t a{1.0, -2.0f};
float32x2_t b{2.0, 1.0f};
float32x2_t c = vmax_f32(a, b); //c{2.000000 1.000000}

vmin{q}_type. Vr[i] := (Va[i] >= Vb[i]) ? Vb[i] : Va[i]

向量比较取小的那个

  • vmin_f32
float32x2_t a{1.0, -2.0f};
float32x2_t b{2.0, 1.0f};
float32x2_t c = vmin_f32(a, b);//c{1.000000 -2.000000}

Pairwise addition 成对的加法

Pairwise add

向量求和,即 c = { sum(a), sum(b) }

  • vpadd_s32
int32x2_t a{3,4};
int32x2_t b{1,2};
int32x2_t c = vpadd_s32(a, b); //c{7 3}

Long pairwise add and accumulate

c={a[0] + sum(c[0:1]), a[1]+sum(2:3)}

  • vpadal_s16
int32x2_t a{3,4};
int16x4_t b{1,2,3,4};
int32x2_t c = vpadal_s16(a, b);//c{6 11}

Folding maximum

取向量 a 和 向量 b 中的最大值,即 c={ max(a), max(b) }

int32x2_t a{1,2};
int32x2_t b{-1,0};
int32x2_t c = vpmax_s32(a, b);//c{2 0}

Folding minimum

取向量 a 和 向量 b 中的最小值,即 c={ min(a), min(b) }

int32x2_t a{1, 2};
int32x2_t b{-1, 0};
int32x2_t c = vpmin_s32(a, b);//c{1 -1}

Reciprocal/Sqrt

这些内在函数在牛顿-拉弗森方法的迭代中执行两个步骤中的第一个步骤,以收敛到倒数或平方根

float32x2_t a{2, 4};
float32x2_t b{1, 3};
float32x2_t c=   vrecps_f32(a, b);//c{0.000000 -10.000000}
float32x2_t a{2, 4};
float32x2_t b{1, 3};
float32x2_t c=   vrsqrts_f32(a, b);//c{0.500000 -4.500000}

Shifts by signed variable 根据变量值移位

这部分函数提供有符号变量的移位能力

Vector shift left: vshl{q}_type. Vr[i] := Va[i] << Vb[i] (negative values shift right)

即 a 向量根据 b 向量中的值进行向左移位,如果 b 中值是负数那么向左移动

  • vshl_s16
 int16x4_t a{1, 8, -1, -8};int16x4_t b{2, -2, 2, -2};int16x4_t c = vshl_s16(a, b);//c{4 2 -4 -2}

Shifts by a constant 常数移位

Vector shift right by constant

向量向右移位

int32x2_t a{8, 16};
int32x2_t c = vshr_n_s32(a, 2);//c{2 4}

Vector shift left by constant

向量向左移位

 int32x2_t a{2, 4};int32x2_t c = vshl_n_s32(a, 2);//c{8 16}

Vector shift right by constant and accumulate

d = (b >> n) + a

int32x2_t a{8, 4};
int32x2_t b{4, 2};
const int c = 1;
int32x2_t d = vsra_n_s32(a, b, c);//c{10 5}

Shifts with insert 移位且插入

Vector shift right and insert

这个操作比较神奇,以 vsri_n_s32 示例,我用大白话来描述一下:

  1. 因为 c = 6,所以保留 a 的前 6 bit,得 0x0c000000
  2. b 向右位移 6 位,得 0x00000400
  3. 两个结果 OR 一下,得 0x0c0000400
  • vsri_n_s32
int32x2_t a{0x0fffffff, 0x0fffffff};
int32x2_t b{0x00010000, 1};
const int c = 6;
int32x2_t d = vsri_n_s32(a, b, c);//c{0x0c0000400 0x0c0000000}

Loads of a single vector or lane 向量加载与存储

Load a single vector from memory

从内存中加载向量

  • vld1q_f32
float a[4] = {1,2,3,4};
float32x4_t b = vld1q_f32(a);//{1.000000 2.000000 3.000000 4.000000}

Load a single lane from memory

从内存中加载到向量指定位置,下面的例子中,将从 src 加载向量,且从 src[2] 开始导入 prt 加载向量的值,即 c[0:lane] = src[0:lane], c[lane:end] = ptr[0:lane]

  • vld1q_lane_s32
int32_t ptr[] = {1, 2, 3, 4};
int32x4_t src{0, 1, 2, 3};
const int lane = 2;
int32x4_t c = vld1q_lane_s32(ptr, src, lane);//c{0 1 1 3}

Load all lanes of vector with same value from memory

从一个内存变量中加载向量,向量中的值都为该值

  • vld1q_dup_s32
const int32_t a{10};
int32x4_t b = vld1q_dup_s32(&a); //{10 10 10 10}

Store a single vector or lane

读取向量值到内存中

Store a single vector into memory

读取一整个向量到内存中

int32x4_t a{0,1,2,3};
int32_t ptr[4];
vst1q_s32(ptr, a);//ptr{0 1 2 3}

Store a lane of a vector into memory

读取向量一个通道的值到内存中

  • vst1q_lane_s32
int32x4_t a{0,1,2,3};
int32_t a0, a1;
vst1q_lane_s32(&a0, a, 0);// 0
vst1q_lane_s32(&a1, a, 3);// 3

Loads of an N-element structure

一次性加载多个向量

Load N-element structure from memory

从内存中加载多个向量,去交织存放

  • vld2q_f32
float32_t ptr[] = {0,1,2,3,4,5,6,7,8};
float32x4x2_t a = vld2q_f32(ptr);
// a.val[0] = {0.000000 2.000000 4.000000 6.000000}
// a.val[1] = {1.000000 3.000000 5.000000 7.000000}

Load all lanes of N-element structure with same value from memory

a[0, :] = ptr[0], a[1, :] = ptr[1]

  • vld2_dup_f32
float32_t ptr[] = {0, 1};
float32x2x2_t a = vld2_dup_f32(ptr);
// a.val[0] = {0.000000 0.000000}
// a.val[1] = {0.000000 0.000000}

Load a single lane of N-element structure from memory

c[:, lane] = ptr,也就是把 src 中的第 lane 列替换为 ptr 中的值

float32_t ptr[] = {10, 20};
float32x4x2_t src = {float32x4_t{1, 1, 1, 1},float32x4_t{2, 2, 2, 2}};
float32x4x2_t c = vld2q_lane_f32(ptr, src, 1);
// c.val[0] = {1.000000 10.000000 1.000000 1.000000}
// c.val[1] = {2.000000 20.000000 2.000000 2.000000}

Store N-element structure to memory

一次性读取多个向量,交织读取

  • vst2q_s32
int32_t ptr[8];
int32x4x2_t val{int32x4_t{0,1,2,3},int32x4_t{4,5,6,7},
};
vst2q_s32(ptr, val);
//ptr = {0 4 1 5 2 6 3 7 }

Store a single lane of N-element structure to memory

读取多个向量中的某个通道,即取某一列

int32_t ptr[2];
int32x4x2_t val{int32x4_t{0,1,2,3},int32x4_t{4,5,6,7},
};
const int lane = 2;
vst2q_lane_s32(ptr, val, lane);
// ptr = {2 6}

Extract lanes from a vector and put into a register

读取向量中指定通道的值

float32x4_t a{0, 1, 2, 3};
const int lane = 2;
float32_t b = vgetq_lane_f32(a, lane);

Load a single lane of a vector from a literal

设置向量指定通道的值

float32x4_t a{0, 1, 2, 3};
float32_t new_val = 10;
const int lane = 2;
float32x4_t b = vsetq_lane_f32(new_val, a, lane);//c{0.000000 1.000000 10.000000 3.000000}

Initialize a vector from a literal bit pattern

从一个 uint64_t 变量中创建向量,

uint64_t a = 0x0000000100000002;
int32x2_t b = vcreate_s32(a);//{2 1}

Set all lanes to same value

Load all lanes of vector to the same literal value

将向量所有通道设置成同一个值

  • vdupq_n_f32
float32x4_t a = vdupq_n_f32(10);//{10.000000 10.000000 10.000000 10.000000}
  • vmovq_n_f32
float32x4_t a = vmovq_n_f32(10);//{10.000000 10.000000 10.000000 10.000000}

Load all lanes of the vector to the value of a lane of a vector

a 向量中取出一个通道的值,用这个值创建一个向量

  • vdupq_lane_f32
float32x2_t a{0, 1};
const int lane = 1;
float32x4_t b = vdupq_lane_f32(a, lane);//{1.000000 1.000000 1.000000 1.000000}

Combining vectors 合并向量

将两个 64bit 向量合并成一个 128bit 的向量

float32x2_t low{0, 1};
float32x2_t high{2, 3};
float32x4_t c = vcombine_f32(low, high);

Splitting vectors 分解向量

float32x4_t a{0,1,2,3};
float32x2_t b = vget_high_f32(a);//{2.000000 3.000000}
float32x4_t a{0,1,2,3};
float32x2_t b = vget_high_f32(a);
float32x2_t c = vget_low_f32(a);//{0.000000 1.000000}

Converting vectors 向量类型转换

float32x2_t a{1, 2};
int32x2_t b = vcvt_s32_f32(a);//{1 2}

Table look up 查表

int8x8x2_t a{int8x8_t{0,1,3,5,7,9,11,13},int8x8_t{2,4,6,8,10,12,14,16}};
int8x8_t b{0,1,2,3,12,13,14,15};
int8x8_t c = vtbl2_s8(a, b);//{0 1 3 5 10 12 14 16}
int8x8_t a{0,1,3,5,7,9,11,13};
int8x8_t b{2,4,6,8,10,12,14,16};
int8x8_t c{0,1,2,3,12,13,14,15};
int8x8_t d = vtbx1_s8(a,b,c);//{2 4 6 8 7 9 11 13 }

Operations with a scalar value

向量与标量的一些操作

Vector multiply accumulate with scalar

d = a + (b * c[lane])

  • vmla_lane_f32
float32x2_t a{1, 2};
float32x2_t b{1, 2};
float32x2_t c{2, 4};
const int lane = 0;
float32x2_t d = vmla_lane_f32(a, b, c, lane);//{3.000000 6.000000}

Vector multiply by scalar

向量与标量相乘

  • vmulq_n_f32
float32x4_t a{0, 1, 2, 3};
float32_t b = 2;
float32x4_t c = vmulq_n_f32(a, b);//{0.000000 2.000000 4.000000 6.000000}

Vector multiply subtract with scalar

d = a - (b * c)

float32x2_t a{1, 2};
float32x2_t b{1, 2};
float32_t c = 2.0f;
float32x2_t d = vmls_n_f32(a, b, c);//{-1.000000 -2.000000}

Vector extract 向量提取

用下面例子说明,想将 a 和 b 合并成一个向量,然后从 lane 下标开始取向量的值

int16x4_t a{0,2,4,6};
int16x4_t b{1,3,5,7};
// a:b => {0,2,4,6,1,3,5,6} => get starts index 3 => {6 1 3 5}
const int lane = 3;
int16x4_t c = vext_s16(a, b, lane);//{6 1 3 5}

Reverse vector elements (swap endianness)

向量元素翻转

float32x4_t a{0, 1, 2, 3};
float32x4_t b = vrev64q_f32(a);//{1.000000 0.000000 3.000000 2.000000}

Other single operand arithmetic

Absolute: vabs{q}_type. Vd[i] = |Va[i]|

取绝对值

  • vabsq_f32
 float32x4_t a{0, 1, -2, -3};float32x4_t b = vabsq_f32(a);//{0.000000 1.000000 2.000000 3.000000}

Negate: vneg{q}_type. Vd[i] = - Va[i]

取反

  • vnegq_f32
 float32x4_t a{0, 1, -2, -3};float32x4_t b = vnegq_f32(a);//{-0.000000 -1.000000 2.000000 3.000000
}

Count leading sign bits

最高位后,连续与最高位相同的 bit 值的个数

  • vcls_s8
int8x8_t a{0b00000001, 0b00110000};
int8x8_t b = vcls_s8(a);
printf("%d %d\n", b[0], b[1]);//{6 1}

Count leading zeros

最高位开始,连续 0 的个数

  • vclz_s8
int8x8_t a{0b00000001, 0b01110000};
int8x8_t b = vclz_s8(a);
printf("%d %d\n", b[0], b[1]);//{7 1}

Count number of set bits

计算 bit 为 1 的个数

  • vcnt_s8
int8x8_t a{0b00000001, 0b01110000};
int8x8_t b = vcnt_s8(a);
printf("%d %d\n", b[0], b[1]);//{1 3}

Reciprocal estimate

倒数估计,近似值

  • vrecpe_f32
float32x2_t a{1, 3};
float32x2_t b = vrecpe_f32(a);//{0.998047 0.333008}

Reciprocal square root estimate

b = 1 / sqrt(a),近似值

  • vrsqrte_f32
float32x2_t a{1, 4};
float32x2_t b = vrsqrte_f32(a);//{0.998047 0.499023}

Logical operations 逻辑操作

Bitwise not

按位非

  • vmvn_s32
int32x2_t a{0x0000ffff, 0x0000000};
int32x2_t b = vmvn_s32(a);
printf("%x %x\n", b[0], b[1]); //{ffff0000 ffffffff}

Bitwise and

按位与

  • vand_s32
int32x2_t a{0x00000ff0, 0x00000ff};
int32x2_t b{0x0000ffff, 0x00000ff};
int32x2_t c = vand_s32(a, b);//{ff0 ff}

Bitwise or

按位或

  • vorr_s32
int32x2_t a{0x00000ff0, 0x00000ff};
int32x2_t b{0x0000ffff, 0x00000ff};
int32x2_t c = vorr_s32(a, b);//{ffff ff}

Bitwise exclusive or (EOR or XOR)

按位异或

  • veor_s32
int32x2_t a{0x00000ff0, 0x00000ff};
int32x2_t b{0x0000ffff, 0x00000ff};
int32x2_t c = veor_s32(a, b);//{f00f 0}

Bit Clear

似乎是 c = a & !b

  • vbic_s32
int32x2_t a{0x7fffffff, 0x000000ff};
int32x2_t b{0x0000ffff, 0x7fffffff};
int32x2_t c = vbic_s32(a, b);//{7fff0000 f0}

Bitwise OR complement

c = a || !b

  • vorn_s32
int32x2_t a{0x7fffffff, 0x000000ff};
int32x2_t b{0x0000ffff, 0x7fffffff};
int32x2_t c = vorn_s32(a, b);//{ffffffff 800000ff}

Transposition operations

向量转置的一些操作

Transpose elements

  • vtrn_s32
int32x2_t a{0, 1};
int32x2_t b{2, 3};
int32x2x2_t c = vtrn_s32(a, b);
/**
0 2
1 3
**/

Interleave elements

  • vzip_s8
int8x8_t a{0,2,4,6,8,10,12,14};
int8x8_t b{1,3,5,7,9,11,13,15};
int8x8x2_t c = vzip_s8(a, b);
/**
0 1 2 3 4 5 6 7
8 9 10 11 12 13 14 15
**/

De-Interleave elements

  • vuzp_s8
 int8x8_t a{0,2,4,6,8,10,12,14};int8x8_t b{1,3,5,7,9,11,13,15};int8x8x2_t c = vuzp_s8(a, b);
/**
0 4 8 12 1 5 9 13
2 6 10 14 3 7 11 15
**/

Vector reinterpret cast operations

在某些情况下,你可能想把一个向量视为具有不同的类型,而不改变它的值。NEON 提供了一组函数来执行这种类型的转换。
这类函数有着相同的语法

vreinterpret{q}_dsttype_srctype

其中:

vreinterpretq_s8_f32 为例

int16x4_t a{0, 1, 2, 3};
uint16x4_t b = vreinterpret_u16_s16(a);//{0 1 2 3}

总结

本文介绍 NEON intrinsics 的基本使用概念和基本使用方式,并且列举了海量的 NEON 函数的使用示例,旨在帮助入门 NEON 不再困难。后面还将列举一些 NEON 指令的实际使用例子,帮助大家理解 NEON 在实际应用场景中是如何被使用的。


参考

  1. Learn the architecture - Optimizing C code with Neon intrinsics
  2. Learn the architecture - Neon programmers’ guide
  3. NEON码农指导 Chapter 1 : Introduction
  4. ARM Compiler toolchain Compiler Reference Version 5.03
  5. ARM NEON for C++ Developers
  6. neon-guide

Neon intrinsics 简明教程相关推荐

  1. NEON Intrinsics 练习题

    系列文章目录 数字信号处理中的 SIMD Neon intrinsics 简明教程 用 NEON 实现高效的 FIR 滤波器 前言 关于 SIMD,或者说 NEON,我已经发布了几篇文章来介绍它了,如 ...

  2. ARM Neon Intrinsics 学习指北:从入门、进阶到学个通透

    本文同步发表于GiantPandaCV公众号,未经作者允许严禁转载 前言 Neon是ARM平台的向量化计算指令集,通过一条指令完成多个数据的运算达到加速的目的,常用于AI.多媒体等计算密集型任务. 本 ...

  3. ARM Neon 编程笔记一(ARM NEON Intrinsics, SIMD运算, 优化心得)

    1. ARM Neon Intrinsics 编程 1.入门:基本能上手写Intrinsics 1.1 Neon介绍.简明案例与编程惯例 1.2 如何检索Intrinsics 1.3 优化效果案例 1 ...

  4. 【genius_platform软件平台开发】第八十二讲:ARM Neon指令集一(ARM NEON Intrinsics, SIMD运算, 优化心得)

    1. ARM Neon Intrinsics 编程 1.入门:基本能上手写Intrinsics 1.1 Neon介绍.简明案例与编程惯例 1.2 如何检索Intrinsics 1.3 优化效果案例 1 ...

  5. svn的搭建安装和使用-简明教程

    SVN简明教程 1.首先需要安装SVN.Centos下的SVN安装十分简单,yum -y install subversion,然后根据提示一步一步,就完成了SVN的安装: root权限: yum - ...

  6. CGIC简明教程(转摘)

    CGIC简明教程 本系列的目的是演示如何使用C语言的CGI库"CGIC"完成Web开发的各种要求. *********************************     基础 ...

  7. kangle web server源代码安装简明教程

    kangle web server源代码安装简明教程 - kangle使用交流 - kangle软件 是一款高性能web服务器,反向代理服务器,提供虚拟主机管理系统及代理服务器,web服务器架设 - ...

  8. CentOs6.5中安装和配置vsftp简明教程

    这篇文章主要介绍了CentOs6.5中安装和配置vsftp简明教程,需要的朋友可以参考下 一.vsftp安装篇 复制代码代码如下: # 安装vsftpd yum -y install vsftpd # ...

  9. sqlalchemy mysql_SQLAlchemy简明教程

    原文可见:SQLAlchemy简明教程 - Jiajun的编程随想 SQLAlchemy是Python中常用的一个ORM,SQLAlchemy分成三部分: ORM,就是我们用类来表示数据库schema ...

最新文章

  1. 带你感受小而美的看板协作工具Leangoo的魅力
  2. [评测] 联想 Mirage Solo 一体机:基本性能强大,价格定位很迷
  3. 龙书啃不动?老司机带你从零入门编译原理,开发编译器
  4. Android开发之拍照后图片旋转的问题
  5. 2021 CCPC E. 被遗忘的计划(循环卷积+快速幂)
  6. Node.js + Consul 实现服务注册、健康检查、配置中心
  7. anywhere执行时端口被占用Address already in use:8080解决方法
  8. 北京市将持续扩大5G网络建设规模 超前布局6G
  9. STSdb,最强纯C#开源NoSQL和虚拟文件系统
  10. Docker代理设置方法
  11. wps文档怎么画流程图6_wps文字如何绘制流程图图文教程
  12. 程序员必读书籍及导读指南
  13. 广西北部湾经济区升级发展 全面对接粤港澳大湾区
  14. macOS Big Sur 11.2.3 (20D91) 虚拟机 ISO 镜像
  15. java区分无线网卡,无线网卡种类有什么区别
  16. 研究:骇客又在合法的苹果Xcode专案上植入恶意程式
  17. OAuth2第三方登录快速接入
  18. postgresql 密码修改,忘记密码进行修改重置
  19. 计算机视觉之图像分割——水平集方法_ACWE2001
  20. asp.net调用飞信免费发短信

热门文章

  1. 解读经典《C#高级编程》第七版 Page79-93.对象和类型.Chapter3
  2. BeeWare 峰器 中文文档 - 教程 2 - 让它变得有趣
  3. linux无线驱动接口简介
  4. oracle9i的dmp,oracle 9i怎么导入DMP数据库文件?
  5. 关于diea2021.2.1中tabs窗口不能拖动
  6. wh计算公式_wh是什么单位符号
  7. C++笔记--Linux编程(8)-gcc gbb make
  8. Ubuntu18.04 - 返回到Gnome经典桌面!
  9. IP地址(A类、B类、C类地址)和子网划分
  10. [英语阅读]乌克兰一村庄拟改名为“杰克逊”