cryptodev: use single mempool for asymmetric session
[dpdk.git] / app / test / test_spinlock.c
index 6ac7495..3f59372 100644 (file)
@@ -17,7 +17,6 @@
 #include <rte_lcore.h>
 #include <rte_cycles.h>
 #include <rte_spinlock.h>
-#include <rte_atomic.h>
 
 #include "test.h"
 
@@ -28,7 +27,7 @@
  * - There is a global spinlock and a table of spinlocks (one per lcore).
  *
  * - The test function takes all of these locks and launches the
- *   ``test_spinlock_per_core()`` function on each core (except the master).
+ *   ``test_spinlock_per_core()`` function on each core (except the main).
  *
  *   - The function takes the global lock, display something, then releases
  *     the global lock.
@@ -49,10 +48,10 @@ static rte_spinlock_t sl_tab[RTE_MAX_LCORE];
 static rte_spinlock_recursive_t slr;
 static unsigned count = 0;
 
-static rte_atomic32_t synchro;
+static uint32_t synchro;
 
 static int
-test_spinlock_per_core(__attribute__((unused)) void *arg)
+test_spinlock_per_core(__rte_unused void *arg)
 {
        rte_spinlock_lock(&sl);
        printf("Global lock taken on core %u\n", rte_lcore_id());
@@ -66,7 +65,7 @@ test_spinlock_per_core(__attribute__((unused)) void *arg)
 }
 
 static int
-test_spinlock_recursive_per_core(__attribute__((unused)) void *arg)
+test_spinlock_recursive_per_core(__rte_unused void *arg)
 {
        unsigned id = rte_lcore_id();
 
@@ -109,9 +108,9 @@ load_loop_fn(void *func_param)
        const int use_lock = *(int*)func_param;
        const unsigned lcore = rte_lcore_id();
 
-       /* wait synchro for slaves */
-       if (lcore != rte_get_master_lcore())
-               while (rte_atomic32_read(&synchro) == 0);
+       /* wait synchro for workers */
+       if (lcore != rte_get_main_lcore())
+               rte_wait_until_equal_32(&synchro, 1, __ATOMIC_RELAXED);
 
        begin = rte_get_timer_cycles();
        while (lcount < MAX_LOOP) {
@@ -149,12 +148,12 @@ test_spinlock_perf(void)
 
        printf("\nTest with lock on %u cores...\n", rte_lcore_count());
 
-       /* Clear synchro and start slaves */
-       rte_atomic32_set(&synchro, 0);
-       rte_eal_mp_remote_launch(load_loop_fn, &lock, SKIP_MASTER);
+       /* Clear synchro and start workers */
+       __atomic_store_n(&synchro, 0, __ATOMIC_RELAXED);
+       rte_eal_mp_remote_launch(load_loop_fn, &lock, SKIP_MAIN);
 
-       /* start synchro and launch test on master */
-       rte_atomic32_set(&synchro, 1);
+       /* start synchro and launch test on main */
+       __atomic_store_n(&synchro, 1, __ATOMIC_RELAXED);
        load_loop_fn(&lock);
 
        rte_eal_mp_wait_lcore();
@@ -178,7 +177,7 @@ test_spinlock_perf(void)
  * checked as the result later.
  */
 static int
-test_spinlock_try(__attribute__((unused)) void *arg)
+test_spinlock_try(__rte_unused void *arg)
 {
        if (rte_spinlock_trylock(&sl_try) == 0) {
                rte_spinlock_lock(&sl);
@@ -200,8 +199,8 @@ test_spinlock(void)
        int ret = 0;
        int i;
 
-       /* slave cores should be waiting: print it */
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       /* worker cores should be waiting: print it */
+       RTE_LCORE_FOREACH_WORKER(i) {
                printf("lcore %d state: %d\n", i,
                       (int) rte_eal_get_lcore_state(i));
        }
@@ -214,19 +213,19 @@ test_spinlock(void)
 
        rte_spinlock_lock(&sl);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_spinlock_lock(&sl_tab[i]);
                rte_eal_remote_launch(test_spinlock_per_core, NULL, i);
        }
 
-       /* slave cores should be busy: print it */
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       /* worker cores should be busy: print it */
+       RTE_LCORE_FOREACH_WORKER(i) {
                printf("lcore %d state: %d\n", i,
                       (int) rte_eal_get_lcore_state(i));
        }
        rte_spinlock_unlock(&sl);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_spinlock_unlock(&sl_tab[i]);
                rte_delay_ms(10);
        }
@@ -245,7 +244,7 @@ test_spinlock(void)
        } else
                rte_spinlock_recursive_unlock(&slr);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_eal_remote_launch(test_spinlock_recursive_per_core, NULL, i);
        }
        rte_spinlock_recursive_unlock(&slr);
@@ -253,12 +252,12 @@ test_spinlock(void)
 
        /*
         * Test if it could return immediately from try-locking a locked object.
-        * Here it will lock the spinlock object first, then launch all the slave
+        * Here it will lock the spinlock object first, then launch all the worker
         * lcores to trylock the same spinlock object.
-        * All the slave lcores should give up try-locking a locked object and
+        * All the worker lcores should give up try-locking a locked object and
         * return immediately, and then increase the "count" initialized with zero
         * by one per times.
-        * We can check if the "count" is finally equal to the number of all slave
+        * We can check if the "count" is finally equal to the number of all worker
         * lcores to see if the behavior of try-locking a locked spinlock object
         * is correct.
         */
@@ -266,7 +265,7 @@ test_spinlock(void)
                return -1;
        }
        count = 0;
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_eal_remote_launch(test_spinlock_try, NULL, i);
        }
        rte_eal_mp_wait_lcore();