49 __m128i x0 = _mm_loadu_si128((__m128i*)address);
50 __m128i x1 = _mm_loadu_si128((__m128i*)address + 1);
51 x0 = _mm_or_si128(x0, x1);
52 x1 = _mm_shuffle_epi32(x0, 0xEE);
53 x0 = _mm_or_si128(x0, x1);
54 x1 = _mm_shuffle_epi32(x0, 0x55);
55 x0 = _mm_or_si128(x0, x1);
56 ui32 t = (
ui32)_mm_extract_epi32(x0, 0);
63 __m128i x0 = _mm_loadu_si128((__m128i*)address);
64 __m128i x1 = _mm_loadu_si128((__m128i*)address + 1);
65 x0 = _mm_or_si128(x0, x1);
66 x1 = _mm_shuffle_epi32(x0, 0xEE);
67 x0 = _mm_or_si128(x0, x1);
69#ifdef OJPH_ARCH_X86_64
70 t = (
ui64)_mm_extract_epi64(x0, 0);
71#elif (defined OJPH_ARCH_I386)
72 t = (
ui64)(
ui32)_mm_extract_epi32(x0, 0);
73 t |= (
ui64)(
ui32)_mm_extract_epi32(x0, 1) << 32;
75 #error Error unsupport compiler
82 float delta_inv,
ui32 count,
ui32* max_val)
87 ui32 shift = 31 - K_max;
88 __m256i m0 = _mm256_set1_epi32(INT_MIN);
89 __m256i tmax = _mm256_loadu_si256((__m256i*)max_val);
90 __m256i *p = (__m256i*)sp;
91 for ( ; count >= 8; count -= 8, p += 1, dp += 8)
93 __m256i v = _mm256_loadu_si256(p);
94 __m256i sign = _mm256_and_si256(v, m0);
95 __m256i val = _mm256_abs_epi32(v);
96 val = _mm256_slli_epi32(val, (
int)shift);
97 tmax = _mm256_or_si256(tmax, val);
98 val = _mm256_or_si256(val, sign);
99 _mm256_storeu_si256((__m256i*)dp, val);
103 __m256i v = _mm256_loadu_si256(p);
104 __m256i sign = _mm256_and_si256(v, m0);
105 __m256i val = _mm256_abs_epi32(v);
106 val = _mm256_slli_epi32(val, (
int)shift);
108 __m256i c = _mm256_set1_epi32((
si32)count);
109 __m256i idx = _mm256_set_epi32(7, 6, 5, 4, 3, 2, 1, 0);
110 __m256i mask = _mm256_cmpgt_epi32(c, idx);
111 c = _mm256_and_si256(val, mask);
112 tmax = _mm256_or_si256(tmax, c);
114 val = _mm256_or_si256(val, sign);
115 _mm256_storeu_si256((__m256i*)dp, val);
117 _mm256_storeu_si256((__m256i*)max_val, tmax);
122 float delta_inv,
ui32 count,
ui32* max_val)
127 __m256 d = _mm256_set1_ps(delta_inv);
128 __m256i m0 = _mm256_set1_epi32(INT_MIN);
129 __m256i tmax = _mm256_loadu_si256((__m256i*)max_val);
130 float *p = (
float*)sp;
132 for ( ; count >= 8; count -= 8, p += 8, dp += 8)
134 __m256 vf = _mm256_loadu_ps(p);
135 vf = _mm256_mul_ps(vf, d);
136 __m256i val = _mm256_cvtps_epi32(vf);
137 __m256i sign = _mm256_and_si256(val, m0);
138 val = _mm256_abs_epi32(val);
139 tmax = _mm256_or_si256(tmax, val);
140 val = _mm256_or_si256(val, sign);
141 _mm256_storeu_si256((__m256i*)dp, val);
145 __m256 vf = _mm256_loadu_ps(p);
146 vf = _mm256_mul_ps(vf, d);
147 __m256i val = _mm256_cvtps_epi32(vf);
148 __m256i sign = _mm256_and_si256(val, m0);
149 val = _mm256_abs_epi32(val);
151 __m256i c = _mm256_set1_epi32((
si32)count);
152 __m256i idx = _mm256_set_epi32(7, 6, 5, 4, 3, 2, 1, 0);
153 __m256i mask = _mm256_cmpgt_epi32(c, idx);
154 c = _mm256_and_si256(val, mask);
155 tmax = _mm256_or_si256(tmax, c);
157 val = _mm256_or_si256(val, sign);
158 _mm256_storeu_si256((__m256i*)dp, val);
160 _mm256_storeu_si256((__m256i*)max_val, tmax);
165 float delta,
ui32 count)
168 ui32 shift = 31 - K_max;
169 __m256i m1 = _mm256_set1_epi32(INT_MAX);
171 for (
ui32 i = 0; i < count; i += 8, sp += 8, p += 8)
173 __m256i v = _mm256_load_si256((__m256i*)sp);
174 __m256i val = _mm256_and_si256(v, m1);
175 val = _mm256_srli_epi32(val, (
int)shift);
176 val = _mm256_sign_epi32(val, v);
177 _mm256_storeu_si256((__m256i*)p, val);
183 float delta,
ui32 count)
186 __m256i m1 = _mm256_set1_epi32(INT_MAX);
187 __m256 d = _mm256_set1_ps(delta);
188 float *p = (
float*)dp;
189 for (
ui32 i = 0; i < count; i += 8, sp += 8, p += 8)
191 __m256i v = _mm256_load_si256((__m256i*)sp);
192 __m256i vali = _mm256_and_si256(v, m1);
193 __m256 valf = _mm256_cvtepi32_ps(vali);
194 valf = _mm256_mul_ps(valf, d);
195 __m256i sign = _mm256_andnot_si256(m1, v);
196 valf = _mm256_or_ps(valf, _mm256_castsi256_ps(sign));
197 _mm256_storeu_ps(p, valf);
203 float delta_inv,
ui32 count,
ui64* max_val)
208 ui32 shift = 63 - K_max;
209 __m256i m0 = _mm256_set1_epi64x(LLONG_MIN);
210 __m256i zero = _mm256_setzero_si256();
211 __m256i one = _mm256_set1_epi64x(1);
212 __m256i tmax = _mm256_loadu_si256((__m256i*)max_val);
213 __m256i *p = (__m256i*)sp;
214 for ( ; count >= 4; count -= 4, p += 1, dp += 4)
216 __m256i v = _mm256_loadu_si256(p);
217 __m256i sign = _mm256_cmpgt_epi64(zero, v);
218 __m256i val = _mm256_xor_si256(v, sign);
219 __m256i ones = _mm256_and_si256(sign, one);
220 val = _mm256_add_epi64(val, ones);
221 sign = _mm256_and_si256(sign, m0);
222 val = _mm256_slli_epi64(val, (
int)shift);
223 tmax = _mm256_or_si256(tmax, val);
224 val = _mm256_or_si256(val, sign);
225 _mm256_storeu_si256((__m256i*)dp, val);
229 __m256i v = _mm256_loadu_si256(p);
230 __m256i sign = _mm256_cmpgt_epi64(zero, v);
231 __m256i val = _mm256_xor_si256(v, sign);
232 __m256i ones = _mm256_and_si256(sign, one);
233 val = _mm256_add_epi64(val, ones);
234 sign = _mm256_and_si256(sign, m0);
235 val = _mm256_slli_epi64(val, (
int)shift);
237 __m256i c = _mm256_set1_epi64x(count);
238 __m256i idx = _mm256_set_epi64x(3, 2, 1, 0);
239 __m256i mask = _mm256_cmpgt_epi64(c, idx);
240 c = _mm256_and_si256(val, mask);
241 tmax = _mm256_or_si256(tmax, c);
243 val = _mm256_or_si256(val, sign);
244 _mm256_storeu_si256((__m256i*)dp, val);
246 _mm256_storeu_si256((__m256i*)max_val, tmax);
251 float delta,
ui32 count)
255 ui32 shift = 63 - K_max;
256 __m256i m1 = _mm256_set1_epi64x(LLONG_MAX);
257 __m256i zero = _mm256_setzero_si256();
258 __m256i one = _mm256_set1_epi64x(1);
260 for (
ui32 i = 0; i < count; i += 4, sp += 4, p += 4)
262 __m256i v = _mm256_load_si256((__m256i*)sp);
263 __m256i val = _mm256_and_si256(v, m1);
264 val = _mm256_srli_epi64(val, (
int)shift);
265 __m256i sign = _mm256_cmpgt_epi64(zero, v);
266 val = _mm256_xor_si256(val, sign);
267 __m256i ones = _mm256_and_si256(sign, one);
268 val = _mm256_add_epi64(val, ones);
269 _mm256_storeu_si256((__m256i*)p, val);