static rte_atomic32_t synchro;
static int
-test_mcslock_per_core(__attribute__((unused)) void *arg)
+test_mcslock_per_core(__rte_unused void *arg)
{
/* Per core me node. */
rte_mcslock_t ml_me = RTE_PER_LCORE(_ml_me);
* return immediately.
*/
static int
-test_mcslock_try(__attribute__((unused)) void *arg)
+test_mcslock_try(__rte_unused void *arg)
{
/**< Per core me node. */
rte_mcslock_t ml_me = RTE_PER_LCORE(_ml_me);
RTE_LCORE_FOREACH_SLAVE(i) {
rte_eal_remote_launch(test_mcslock_try, NULL, i);
}
- rte_mcslock_unlock(&p_ml_try, &ml_try_me);
rte_eal_mp_wait_lcore();
+ rte_mcslock_unlock(&p_ml_try, &ml_try_me);
/* Test is_locked API */
if (rte_mcslock_is_locked(p_ml)) {