☰
In core::core_arch::aarch64::neon
Modules
generated
Structs
float64x1_t
float64x1x2_t
float64x1x3_t
float64x1x4_t
float64x2_t
float64x2x2_t
float64x2x3_t
float64x2x4_t
Functions
vabs_s64
vabs_s64_
vabsd_s64
vabsd_s64_
vabsq_s64
vabsq_s64_
vadd_f64
vadd_s64
vadd_u64
vaddd_s64
vaddd_u64
vaddlv_s8
vaddlv_s8_
vaddlv_u8
vaddlv_u8_
vaddlvq_s8
vaddlvq_s8_
vaddlvq_u8
vaddlvq_u8_
vaddq_f64
vaddv_s16
vaddv_s16_
vaddv_s32
vaddv_s32_
vaddv_s8
vaddv_s8_
vaddv_u16
vaddv_u16_
vaddv_u32
vaddv_u32_
vaddv_u8
vaddv_u8_
vaddvq_s16
vaddvq_s16_
vaddvq_s32
vaddvq_s32_
vaddvq_s64
vaddvq_s64_
vaddvq_s8
vaddvq_s8_
vaddvq_u16
vaddvq_u16_
vaddvq_u32
vaddvq_u32_
vaddvq_u64
vaddvq_u64_
vaddvq_u8
vaddvq_u8_
vbsl_f64
vbsl_p64
vbslq_f64
vbslq_p64
vcombine_f64
vcopy_lane_f64
vcopy_lane_p64
vcopy_lane_s64
vcopy_lane_u64
vcopy_laneq_f64
vcopy_laneq_p64
vcopy_laneq_s64
vcopy_laneq_u64
vdup_n_f64
vdup_n_p64
vdupq_n_f64
vdupq_n_p64
vext_f64
vext_p64
vget_high_f64
vget_high_p64
vget_lane_f64
vget_low_f64
vget_low_p64
vgetq_lane_f64
vld1_dup_f64
vld1_f32
vld1_f64
vld1_lane_f64
vld1_p16
vld1_p64
vld1_p8
vld1_s16
vld1_s32
vld1_s64
vld1_s8
vld1_u16
vld1_u32
vld1_u64
vld1_u8
vld1q_dup_f64
vld1q_f32
vld1q_f64
vld1q_lane_f64
vld1q_p16
vld1q_p64
vld1q_p8
vld1q_s16
vld1q_s32
vld1q_s64
vld1q_s8
vld1q_u16
vld1q_u32
vld1q_u64
vld1q_u8
vmaxv_f32
vmaxv_f32_
vmaxv_s16
vmaxv_s16_
vmaxv_s32
vmaxv_s32_
vmaxv_s8
vmaxv_s8_
vmaxv_u16
vmaxv_u16_
vmaxv_u32
vmaxv_u32_
vmaxv_u8
vmaxv_u8_
vmaxvq_f32
vmaxvq_f32_
vmaxvq_f64
vmaxvq_f64_
vmaxvq_s16
vmaxvq_s16_
vmaxvq_s32
vmaxvq_s32_
vmaxvq_s8
vmaxvq_s8_
vmaxvq_u16
vmaxvq_u16_
vmaxvq_u32
vmaxvq_u32_
vmaxvq_u8
vmaxvq_u8_
vminv_f32
vminv_f32_
vminv_s16
vminv_s16_
vminv_s32
vminv_s32_
vminv_s8
vminv_s8_
vminv_u16
vminv_u16_
vminv_u32
vminv_u32_
vminv_u8
vminv_u8_
vminvq_f32
vminvq_f32_
vminvq_f64
vminvq_f64_
vminvq_s16
vminvq_s16_
vminvq_s32
vminvq_s32_
vminvq_s8
vminvq_s8_
vminvq_u16
vminvq_u16_
vminvq_u32
vminvq_u32_
vminvq_u8
vminvq_u8_
vmov_n_f64
vmov_n_p64
vmovq_n_f64
vmovq_n_p64
vpaddd_s64
vpaddd_u64
vpaddq_s16
vpaddq_s16_
vpaddq_s32
vpaddq_s32_
vpaddq_s64
vpaddq_s64_
vpaddq_s8
vpaddq_s8_
vpaddq_u16
vpaddq_u32
vpaddq_u64
vpaddq_u8
vpmaxq_f32
vpmaxq_f32_
vpmaxq_f64
vpmaxq_f64_
vpmaxq_s16
vpmaxq_s16_
vpmaxq_s32
vpmaxq_s32_
vpmaxq_s8
vpmaxq_s8_
vpmaxq_u16
vpmaxq_u16_
vpmaxq_u32
vpmaxq_u32_
vpmaxq_u8
vpmaxq_u8_
vpminq_f32
vpminq_f32_
vpminq_f64
vpminq_f64_
vpminq_s16
vpminq_s16_
vpminq_s32
vpminq_s32_
vpminq_s8
vpminq_s8_
vpminq_u16
vpminq_u16_
vpminq_u32
vpminq_u32_
vpminq_u8
vpminq_u8_
vqtbl1
vqtbl1_p8
vqtbl1_s8
vqtbl1_u8
vqtbl1q
vqtbl1q_p8
vqtbl1q_s8
vqtbl1q_u8
vqtbl2
vqtbl2_p8
vqtbl2_s8
vqtbl2_u8
vqtbl2q
vqtbl2q_p8
vqtbl2q_s8
vqtbl2q_u8
vqtbl3
vqtbl3_p8
vqtbl3_s8
vqtbl3_u8
vqtbl3q
vqtbl3q_p8
vqtbl3q_s8
vqtbl3q_u8
vqtbl4
vqtbl4_p8
vqtbl4_s8
vqtbl4_u8
vqtbl4q
vqtbl4q_p8
vqtbl4q_s8
vqtbl4q_u8
vqtbx1
vqtbx1_p8
vqtbx1_s8
vqtbx1_u8
vqtbx1q
vqtbx1q_p8
vqtbx1q_s8
vqtbx1q_u8
vqtbx2
vqtbx2_p8
vqtbx2_s8
vqtbx2_u8
vqtbx2q
vqtbx2q_p8
vqtbx2q_s8
vqtbx2q_u8
vqtbx3
vqtbx3_p8
vqtbx3_s8
vqtbx3_u8
vqtbx3q
vqtbx3q_p8
vqtbx3q_s8
vqtbx3q_u8
vqtbx4
vqtbx4_p8
vqtbx4_s8
vqtbx4_u8
vqtbx4q
vqtbx4q_p8
vqtbx4q_s8
vqtbx4q_u8
vshld_n_s64
vshld_n_u64
vshrd_n_s64
vshrd_n_u64
vsli_n_p16
vsli_n_p64
vsli_n_p8
vsli_n_s16
vsli_n_s16_
vsli_n_s32
vsli_n_s32_
vsli_n_s64
vsli_n_s64_
vsli_n_s8
vsli_n_s8_
vsli_n_u16
vsli_n_u32
vsli_n_u64
vsli_n_u8
vsliq_n_p16
vsliq_n_p64
vsliq_n_p8
vsliq_n_s16
vsliq_n_s16_
vsliq_n_s32
vsliq_n_s32_
vsliq_n_s64
vsliq_n_s64_
vsliq_n_s8
vsliq_n_s8_
vsliq_n_u16
vsliq_n_u32
vsliq_n_u64
vsliq_n_u8
vsm3tt1aq_u32
vsm3tt1bq_u32
vsm3tt2aq_u32
vsm3tt2bq_u32
vsqadd_u16
vsqadd_u16_
vsqadd_u32
vsqadd_u32_
vsqadd_u64
vsqadd_u64_
vsqadd_u8
vsqadd_u8_
vsqaddq_u16
vsqaddq_u16_
vsqaddq_u32
vsqaddq_u32_
vsqaddq_u64
vsqaddq_u64_
vsqaddq_u8
vsqaddq_u8_
vsrad_n_s64
vsrad_n_u64
vsri_n_p16
vsri_n_p64
vsri_n_p8
vsri_n_s16
vsri_n_s16_
vsri_n_s32
vsri_n_s32_
vsri_n_s64
vsri_n_s64_
vsri_n_s8
vsri_n_s8_
vsri_n_u16
vsri_n_u32
vsri_n_u64
vsri_n_u8
vsriq_n_p16
vsriq_n_p64
vsriq_n_p8
vsriq_n_s16
vsriq_n_s16_
vsriq_n_s32
vsriq_n_s32_
vsriq_n_s64
vsriq_n_s64_
vsriq_n_s8
vsriq_n_s8_
vsriq_n_u16
vsriq_n_u32
vsriq_n_u64
vsriq_n_u8
vst1_f32
vst1_f64
vst1_p16
vst1_p64
vst1_p8
vst1_s16
vst1_s32
vst1_s64
vst1_s8
vst1_u16
vst1_u32
vst1_u64
vst1_u8
vst1q_f32
vst1q_f64
vst1q_p16
vst1q_p64
vst1q_p8
vst1q_s16
vst1q_s32
vst1q_s64
vst1q_s8
vst1q_u16
vst1q_u32
vst1q_u64
vst1q_u8
vtbl1_p8
vtbl1_s8
vtbl1_u8
vtbl2_p8
vtbl2_s8
vtbl2_u8
vtbl3_p8
vtbl3_s8
vtbl3_u8
vtbl4_p8
vtbl4_s8
vtbl4_u8
vtbx1_p8
vtbx1_s8
vtbx1_u8
vtbx2_p8
vtbx2_s8
vtbx2_u8
vtbx3_p8
vtbx3_s8
vtbx3_u8
vtbx4_p8
vtbx4_s8
vtbx4_u8
vuqadd_s16
vuqadd_s16_
vuqadd_s32
vuqadd_s32_
vuqadd_s64
vuqadd_s64_
vuqadd_s8
vuqadd_s8_
vuqaddq_s16
vuqaddq_s16_
vuqaddq_s32
vuqaddq_s32_
vuqaddq_s64
vuqaddq_s64_
vuqaddq_s8
vuqaddq_s8_
vxarq_u64
?
Function
core
::
core_arch
::
aarch64
::
neon
::
vaddv_s32
1.59.0
·
source
·
[
−
]
pub unsafe fn vaddv_s32(a:
int32x2_t
) ->
i32
Available on
AArch64 and target feature
neon
only.
Expand description
Add across vector