eal: rename lcore master and slave
authorStephen Hemminger <stephen@networkplumber.org>
Thu, 15 Oct 2020 22:57:19 +0000 (15:57 -0700)
committerThomas Monjalon <thomas@monjalon.net>
Tue, 20 Oct 2020 11:17:08 +0000 (13:17 +0200)
Replace master lcore with main lcore and
replace slave lcore with worker lcore.

Keep the old functions and macros but mark them as deprecated
for this release.

The "--master-lcore" command line option is also deprecated
and any usage will print a warning and use "--main-lcore"
as replacement.

Signed-off-by: Stephen Hemminger <stephen@networkplumber.org>
Acked-by: Anatoly Burakov <anatoly.burakov@intel.com>
171 files changed:
app/pdump/main.c
app/test-acl/main.c
app/test-bbdev/test_bbdev_perf.c
app/test-compress-perf/main.c
app/test-crypto-perf/main.c
app/test-eventdev/evt_options.c
app/test-eventdev/test_order_common.c
app/test-eventdev/test_perf_common.c
app/test-eventdev/test_pipeline_common.c
app/test-flow-perf/main.c
app/test-pipeline/main.c
app/test-pmd/cmdline.c
app/test-pmd/config.c
app/test-pmd/parameters.c
app/test-pmd/testpmd.c
app/test-sad/main.c
app/test/autotest_test_funcs.py
app/test/meson.build
app/test/test.c
app/test/test_atomic.c
app/test/test_barrier.c
app/test/test_compressdev_test_buffer.h
app/test/test_cryptodev.c
app/test/test_distributor.c
app/test/test_distributor_perf.c
app/test/test_eal_flags.c
app/test/test_efd.c
app/test/test_efd_perf.c
app/test/test_func_reentrancy.c
app/test/test_hash_multiwriter.c
app/test/test_hash_readwrite.c
app/test/test_kni.c
app/test/test_lpm_perf.c
app/test/test_malloc.c
app/test/test_mbuf.c
app/test/test_mcslock.c
app/test/test_mempool_perf.c
app/test/test_mp_secondary.c
app/test/test_pdump.c
app/test/test_per_lcore.c
app/test/test_pmd_perf.c
app/test/test_rcu_qsbr.c
app/test/test_rcu_qsbr_perf.c
app/test/test_ring_perf.c
app/test/test_ring_stress_impl.h
app/test/test_rwlock.c
app/test/test_service_cores.c
app/test/test_spinlock.c
app/test/test_stack.c
app/test/test_stack_perf.c
app/test/test_ticketlock.c
app/test/test_timer.c
app/test/test_timer_racecond.c
app/test/test_timer_secondary.c
app/test/test_trace_perf.c
doc/guides/contributing/coding_style.rst
doc/guides/faq/faq.rst
doc/guides/howto/debug_troubleshoot.rst
doc/guides/linux_gsg/eal_args.include.rst
doc/guides/linux_gsg/quick_start.rst
doc/guides/nics/bnxt.rst
doc/guides/prog_guide/env_abstraction_layer.rst
doc/guides/prog_guide/event_ethernet_rx_adapter.rst
doc/guides/prog_guide/glossary.rst
doc/guides/prog_guide/img/linuxapp_launch.svg
doc/guides/rel_notes/deprecation.rst
doc/guides/rel_notes/release_20_11.rst
doc/guides/sample_app_ug/bbdev_app.rst
doc/guides/sample_app_ug/ethtool.rst
doc/guides/sample_app_ug/hello_world.rst
doc/guides/sample_app_ug/ioat.rst
doc/guides/sample_app_ug/ip_pipeline.rst
doc/guides/sample_app_ug/keep_alive.rst
doc/guides/sample_app_ug/l2_forward_event.rst
doc/guides/sample_app_ug/l2_forward_real_virtual.rst
doc/guides/sample_app_ug/l3_forward_graph.rst
doc/guides/sample_app_ug/l3_forward_power_man.rst
doc/guides/sample_app_ug/link_status_intr.rst
doc/guides/sample_app_ug/multi_process.rst
doc/guides/sample_app_ug/packet_ordering.rst
doc/guides/sample_app_ug/performance_thread.rst
doc/guides/sample_app_ug/ptpclient.rst
doc/guides/sample_app_ug/qos_scheduler.rst
doc/guides/sample_app_ug/timer.rst
doc/guides/testpmd_app_ug/run_app.rst
doc/guides/testpmd_app_ug/testpmd_funcs.rst
drivers/bus/dpaa/dpaa_bus.c
drivers/event/dpaa2/dpaa2_eventdev_selftest.c
drivers/event/octeontx/ssovf_evdev_selftest.c
drivers/event/octeontx2/otx2_evdev_selftest.c
drivers/event/sw/sw_evdev_selftest.c
drivers/net/bnxt/bnxt_ring.c
drivers/net/mvpp2/mrvl_ethdev.c
drivers/net/qede/base/bcm_osal.c
drivers/net/softnic/rte_eth_softnic_internals.h
drivers/net/softnic/rte_eth_softnic_thread.c
examples/bbdev_app/main.c
examples/bond/main.c
examples/distributor/main.c
examples/ethtool/ethtool-app/main.c
examples/eventdev_pipeline/main.c
examples/flow_classify/flow_classify.c
examples/helloworld/main.c
examples/ioat/ioatfwd.c
examples/ip_fragmentation/main.c
examples/ip_pipeline/main.c
examples/ip_pipeline/thread.c
examples/ip_reassembly/main.c
examples/ipsec-secgw/event_helper.c
examples/ipsec-secgw/ipsec-secgw.c
examples/ipv4_multicast/main.c
examples/kni/main.c
examples/l2fwd-cat/l2fwd-cat.c
examples/l2fwd-crypto/main.c
examples/l2fwd-event/l2fwd_event_generic.c
examples/l2fwd-event/l2fwd_event_internal_port.c
examples/l2fwd-event/l2fwd_poll.c
examples/l2fwd-event/main.c
examples/l2fwd-jobstats/main.c
examples/l2fwd-keepalive/main.c
examples/l2fwd/main.c
examples/l3fwd-acl/main.c
examples/l3fwd-graph/main.c
examples/l3fwd-power/main.c
examples/l3fwd/main.c
examples/link_status_interrupt/main.c
examples/multi_process/client_server_mp/mp_server/main.c
examples/multi_process/simple_mp/main.c
examples/multi_process/symmetric_mp/main.c
examples/ntb/ntb_fwd.c
examples/packet_ordering/main.c
examples/performance-thread/l3fwd-thread/main.c
examples/performance-thread/pthread_shim/main.c
examples/pipeline/main.c
examples/pipeline/thread.c
examples/ptpclient/ptpclient.c
examples/qos_meter/main.c
examples/qos_sched/args.c
examples/qos_sched/cmdline.c
examples/qos_sched/main.c
examples/rxtx_callbacks/main.c
examples/server_node_efd/server/main.c
examples/skeleton/basicfwd.c
examples/tep_termination/main.c
examples/timer/main.c
examples/vhost/main.c
examples/vmdq/main.c
examples/vmdq_dcb/main.c
lib/librte_eal/common/eal_common_dynmem.c
lib/librte_eal/common/eal_common_launch.c
lib/librte_eal/common/eal_common_lcore.c
lib/librte_eal/common/eal_common_options.c
lib/librte_eal/common/eal_options.h
lib/librte_eal/common/eal_private.h
lib/librte_eal/common/rte_random.c
lib/librte_eal/common/rte_service.c
lib/librte_eal/freebsd/eal.c
lib/librte_eal/freebsd/eal_thread.c
lib/librte_eal/include/rte_eal.h
lib/librte_eal/include/rte_eal_trace.h
lib/librte_eal/include/rte_launch.h
lib/librte_eal/include/rte_lcore.h
lib/librte_eal/linux/eal.c
lib/librte_eal/linux/eal_memory.c
lib/librte_eal/linux/eal_thread.c
lib/librte_eal/rte_eal_exports.def
lib/librte_eal/version.map
lib/librte_eal/windows/eal.c
lib/librte_eal/windows/eal_thread.c
lib/librte_kni/rte_kni.h
lib/librte_power/rte_power_empty_poll.c

index c38c537..b34bf33 100644 (file)
@@ -947,7 +947,7 @@ dump_packets(void)
                        rte_exit(EXIT_FAILURE, "failed to wait\n");
        }
 
-       /* master core */
+       /* main core */
        while (!quit_signal)
                ;
 }
index 2a3a35a..2cb2fe2 100644 (file)
@@ -1098,7 +1098,7 @@ main(int argc, char **argv)
        if (config.trace_file != NULL)
                tracef_init();
 
-       RTE_LCORE_FOREACH_SLAVE(lcore)
+       RTE_LCORE_FOREACH_WORKER(lcore)
                 rte_eal_remote_launch(search_ip5tuples, NULL, lcore);
 
        search_ip5tuples(NULL);
index 2322675..7df6295 100644 (file)
@@ -3722,14 +3722,14 @@ bler_test(struct active_device *ad,
 
        rte_atomic16_set(&op_params->sync, SYNC_WAIT);
 
-       /* Master core is set at first entry */
+       /* Main core is set at first entry */
        t_params[0].dev_id = ad->dev_id;
        t_params[0].lcore_id = rte_lcore_id();
        t_params[0].op_params = op_params;
        t_params[0].queue_id = ad->queue_ids[used_cores++];
        t_params[0].iter_count = 0;
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (used_cores >= num_lcores)
                        break;
 
@@ -3746,7 +3746,7 @@ bler_test(struct active_device *ad,
        rte_atomic16_set(&op_params->sync, SYNC_START);
        ret = bler_function(&t_params[0]);
 
-       /* Master core is always used */
+       /* Main core is always used */
        for (used_cores = 1; used_cores < num_lcores; used_cores++)
                ret |= rte_eal_wait_lcore(t_params[used_cores].lcore_id);
 
@@ -3840,14 +3840,14 @@ throughput_test(struct active_device *ad,
 
        rte_atomic16_set(&op_params->sync, SYNC_WAIT);
 
-       /* Master core is set at first entry */
+       /* Main core is set at first entry */
        t_params[0].dev_id = ad->dev_id;
        t_params[0].lcore_id = rte_lcore_id();
        t_params[0].op_params = op_params;
        t_params[0].queue_id = ad->queue_ids[used_cores++];
        t_params[0].iter_count = 0;
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (used_cores >= num_lcores)
                        break;
 
@@ -3864,7 +3864,7 @@ throughput_test(struct active_device *ad,
        rte_atomic16_set(&op_params->sync, SYNC_START);
        ret = throughput_function(&t_params[0]);
 
-       /* Master core is always used */
+       /* Main core is always used */
        for (used_cores = 1; used_cores < num_lcores; used_cores++)
                ret |= rte_eal_wait_lcore(t_params[used_cores].lcore_id);
 
@@ -3888,7 +3888,7 @@ throughput_test(struct active_device *ad,
        /* In interrupt TC we need to wait for the interrupt callback to deqeue
         * all pending operations. Skip waiting for queues which reported an
         * error using processing_status variable.
-        * Wait for master lcore operations.
+        * Wait for main lcore operations.
         */
        tp = &t_params[0];
        while ((rte_atomic16_read(&tp->nb_dequeued) <
@@ -3901,7 +3901,7 @@ throughput_test(struct active_device *ad,
        tp->mbps /= TEST_REPETITIONS;
        ret |= (int)rte_atomic16_read(&tp->processing_status);
 
-       /* Wait for slave lcores operations */
+       /* Wait for worker lcores operations */
        for (used_cores = 1; used_cores < num_lcores; used_cores++) {
                tp = &t_params[used_cores];
 
index ed21605..cc9951a 100644 (file)
@@ -389,7 +389,7 @@ main(int argc, char **argv)
        i = 0;
        uint8_t qp_id = 0, cdev_index = 0;
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
 
                if (i == total_nb_qps)
                        break;
@@ -413,7 +413,7 @@ main(int argc, char **argv)
        while (test_data->level <= test_data->level_lst.max) {
 
                i = 0;
-               RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+               RTE_LCORE_FOREACH_WORKER(lcore_id) {
 
                        if (i == total_nb_qps)
                                break;
@@ -424,7 +424,7 @@ main(int argc, char **argv)
                        i++;
                }
                i = 0;
-               RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+               RTE_LCORE_FOREACH_WORKER(lcore_id) {
 
                        if (i == total_nb_qps)
                                break;
@@ -449,7 +449,7 @@ end:
 
        case ST_DURING_TEST:
                i = 0;
-               RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+               RTE_LCORE_FOREACH_WORKER(lcore_id) {
                        if (i == total_nb_qps)
                                break;
 
index b9325d3..5f03551 100644 (file)
@@ -600,7 +600,7 @@ main(int argc, char **argv)
 
        i = 0;
        uint8_t qp_id = 0, cdev_index = 0;
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
 
                if (i == total_nb_qps)
                        break;
@@ -664,7 +664,7 @@ main(int argc, char **argv)
                                distribution_total[buffer_size_count - 1];
 
                i = 0;
-               RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+               RTE_LCORE_FOREACH_WORKER(lcore_id) {
 
                        if (i == total_nb_qps)
                                break;
@@ -674,7 +674,7 @@ main(int argc, char **argv)
                        i++;
                }
                i = 0;
-               RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+               RTE_LCORE_FOREACH_WORKER(lcore_id) {
 
                        if (i == total_nb_qps)
                                break;
@@ -694,7 +694,7 @@ main(int argc, char **argv)
 
                while (opts.test_buffer_size <= opts.max_buffer_size) {
                        i = 0;
-                       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+                       RTE_LCORE_FOREACH_WORKER(lcore_id) {
 
                                if (i == total_nb_qps)
                                        break;
@@ -704,7 +704,7 @@ main(int argc, char **argv)
                                i++;
                        }
                        i = 0;
-                       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+                       RTE_LCORE_FOREACH_WORKER(lcore_id) {
 
                                if (i == total_nb_qps)
                                        break;
@@ -728,7 +728,7 @@ main(int argc, char **argv)
        }
 
        i = 0;
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
 
                if (i == total_nb_qps)
                        break;
@@ -748,7 +748,7 @@ main(int argc, char **argv)
 
 err:
        i = 0;
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (i == total_nb_qps)
                        break;
 
index c60b61a..6994ac4 100644 (file)
@@ -438,7 +438,7 @@ evt_options_dump(struct evt_options *opt)
        evt_dump("verbose_level", "%d", opt->verbose_level);
        evt_dump("socket_id", "%d", opt->socket_id);
        evt_dump("pool_sz", "%d", opt->pool_sz);
-       evt_dump("master lcore", "%d", rte_get_master_lcore());
+       evt_dump("main lcore", "%d", rte_get_main_lcore());
        evt_dump("nb_pkts", "%"PRIu64, opt->nb_pkts);
        evt_dump("nb_timers", "%"PRIu64, opt->nb_timers);
        evt_dump_begin("available lcores");
index 7942390..dc55d93 100644 (file)
@@ -75,15 +75,15 @@ order_opt_check(struct evt_options *opt)
                return -1;
        }
 
-       /* 1 producer + N workers + 1 master */
+       /* 1 producer + N workers + main */
        if (rte_lcore_count() < 3) {
                evt_err("test need minimum 3 lcores");
                return -1;
        }
 
        /* Validate worker lcores */
-       if (evt_lcores_has_overlap(opt->wlcores, rte_get_master_lcore())) {
-               evt_err("worker lcores overlaps with master lcore");
+       if (evt_lcores_has_overlap(opt->wlcores, rte_get_main_lcore())) {
+               evt_err("worker lcores overlaps with main lcore");
                return -1;
        }
 
@@ -118,8 +118,8 @@ order_opt_check(struct evt_options *opt)
        }
 
        /* Validate producer lcore */
-       if (plcore == (int)rte_get_master_lcore()) {
-               evt_err("producer lcore and master lcore should be different");
+       if (plcore == (int)rte_get_main_lcore()) {
+               evt_err("producer lcore and main lcore should be different");
                return -1;
        }
        if (!rte_lcore_is_enabled(plcore)) {
@@ -246,7 +246,7 @@ order_launch_lcores(struct evt_test *test, struct evt_options *opt,
 
        int wkr_idx = 0;
        /* launch workers */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (!(opt->wlcores[lcore_id]))
                        continue;
 
index b3af4bf..955edb7 100644 (file)
@@ -254,7 +254,7 @@ perf_launch_lcores(struct evt_test *test, struct evt_options *opt,
 
        int port_idx = 0;
        /* launch workers */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (!(opt->wlcores[lcore_id]))
                        continue;
 
@@ -268,7 +268,7 @@ perf_launch_lcores(struct evt_test *test, struct evt_options *opt,
        }
 
        /* launch producers */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (!(opt->plcores[lcore_id]))
                        continue;
 
@@ -541,8 +541,8 @@ perf_opt_check(struct evt_options *opt, uint64_t nb_queues)
 {
        unsigned int lcores;
 
-       /* N producer + N worker + 1 master when producer cores are used
-        * Else N worker + 1 master when Rx adapter is used
+       /* N producer + N worker + main when producer cores are used
+        * Else N worker + main when Rx adapter is used
         */
        lcores = opt->prod_type == EVT_PROD_TYPE_SYNT ? 3 : 2;
 
@@ -552,8 +552,8 @@ perf_opt_check(struct evt_options *opt, uint64_t nb_queues)
        }
 
        /* Validate worker lcores */
-       if (evt_lcores_has_overlap(opt->wlcores, rte_get_master_lcore())) {
-               evt_err("worker lcores overlaps with master lcore");
+       if (evt_lcores_has_overlap(opt->wlcores, rte_get_main_lcore())) {
+               evt_err("worker lcores overlaps with main lcore");
                return -1;
        }
        if (evt_lcores_has_overlap_multi(opt->wlcores, opt->plcores)) {
@@ -573,8 +573,8 @@ perf_opt_check(struct evt_options *opt, uint64_t nb_queues)
                        opt->prod_type == EVT_PROD_TYPE_EVENT_TIMER_ADPTR) {
                /* Validate producer lcores */
                if (evt_lcores_has_overlap(opt->plcores,
-                                       rte_get_master_lcore())) {
-                       evt_err("producer lcores overlaps with master lcore");
+                                       rte_get_main_lcore())) {
+                       evt_err("producer lcores overlaps with main lcore");
                        return -1;
                }
                if (evt_has_disabled_lcore(opt->plcores)) {
index f0c0ffe..c67be48 100644 (file)
@@ -60,7 +60,7 @@ pipeline_launch_lcores(struct evt_test *test, struct evt_options *opt,
 
        int port_idx = 0;
        /* launch workers */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (!(opt->wlcores[lcore_id]))
                        continue;
 
@@ -106,9 +106,8 @@ int
 pipeline_opt_check(struct evt_options *opt, uint64_t nb_queues)
 {
        unsigned int lcores;
-       /*
-        * N worker + 1 master
-        */
+
+       /* N worker + main */
        lcores = 2;
 
        if (opt->prod_type != EVT_PROD_TYPE_ETH_RX_ADPTR) {
@@ -129,8 +128,8 @@ pipeline_opt_check(struct evt_options *opt, uint64_t nb_queues)
        }
 
        /* Validate worker lcores */
-       if (evt_lcores_has_overlap(opt->wlcores, rte_get_master_lcore())) {
-               evt_err("worker lcores overlaps with master lcore");
+       if (evt_lcores_has_overlap(opt->wlcores, rte_get_main_lcore())) {
+               evt_err("worker lcores overlaps with main lcore");
                return -1;
        }
        if (evt_has_disabled_lcore(opt->wlcores)) {
index 2189b94..03d01a8 100644 (file)
@@ -1445,7 +1445,7 @@ main(int argc, char **argv)
 
        if (enable_fwd) {
                init_lcore_info();
-               rte_eal_mp_remote_launch(start_forwarding, NULL, CALL_MASTER);
+               rte_eal_mp_remote_launch(start_forwarding, NULL, CALL_MAIN);
        }
 
        RTE_ETH_FOREACH_DEV(port) {
index c7be594..72e4797 100644 (file)
@@ -66,8 +66,8 @@ main(int argc, char **argv)
        app_init();
 
        /* Launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(app_lcore_main_loop, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore) {
+       rte_eal_mp_remote_launch(app_lcore_main_loop, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore) {
                if (rte_eal_wait_lcore(lcore) < 0)
                        return -1;
        }
index cb9ffd8..d59c2b2 100644 (file)
@@ -20238,7 +20238,7 @@ cmdline_read_from_file(const char *filename)
        printf("Read CLI commands from %s\n", filename);
 }
 
-/* prompt function, called from main on MASTER lcore */
+/* prompt function, called from main on MAIN lcore */
 void
 prompt(void)
 {
index c76a909..1668ae3 100644 (file)
@@ -3456,9 +3456,9 @@ set_fwd_lcores_list(unsigned int *lcorelist, unsigned int nb_lc)
                        printf("lcore %u not enabled\n", lcore_cpuid);
                        return -1;
                }
-               if (lcore_cpuid == rte_get_master_lcore()) {
+               if (lcore_cpuid == rte_get_main_lcore()) {
                        printf("lcore %u cannot be masked on for running "
-                              "packet forwarding, which is the master lcore "
+                              "packet forwarding, which is the main lcore "
                               "and reserved for command line parsing only\n",
                               lcore_cpuid);
                        return -1;
index 9d39c1c..bbb68a5 100644 (file)
@@ -89,7 +89,7 @@ usage(char* progname)
        printf("  --nb-ports=N: set the number of forwarding ports "
               "(1 <= N <= %d).\n", nb_ports);
        printf("  --coremask=COREMASK: hexadecimal bitmask of cores running "
-              "the packet forwarding test. The master lcore is reserved for "
+              "the packet forwarding test. The main lcore is reserved for "
               "command line parsing only, and cannot be masked on for "
               "packet forwarding.\n");
        printf("  --portmask=PORTMASK: hexadecimal bitmask of ports used "
index a0ddaea..33fc0fd 100644 (file)
@@ -83,7 +83,7 @@
 uint16_t verbose_level = 0; /**< Silent by default. */
 int testpmd_logtype; /**< Log type for testpmd logs */
 
-/* use master core for command line ? */
+/* use main core for command line ? */
 uint8_t interactive = 0;
 uint8_t auto_start = 0;
 uint8_t tx_first;
@@ -581,7 +581,7 @@ set_default_fwd_lcores_config(void)
                        }
                        socket_ids[num_sockets++] = sock_num;
                }
-               if (i == rte_get_master_lcore())
+               if (i == rte_get_main_lcore())
                        continue;
                fwd_lcores_cpuids[nb_lc++] = i;
        }
index 8380fad..1024757 100644 (file)
@@ -657,11 +657,11 @@ main(int argc, char **argv)
 
        add_rules(sad, 10);
        if (config.parallel_lookup)
-               rte_eal_mp_remote_launch(lookup, sad, SKIP_MASTER);
+               rte_eal_mp_remote_launch(lookup, sad, SKIP_MAIN);
 
        lookup(sad);
        if (config.parallel_lookup)
-               RTE_LCORE_FOREACH_SLAVE(lcore_id)
+               RTE_LCORE_FOREACH_WORKER(lcore_id)
                        if (rte_eal_wait_lcore(lcore_id) < 0)
                                return -1;
 
index 775dfd1..0811066 100644 (file)
@@ -103,7 +103,7 @@ def rwlock_autotest(child, test_name):
         index = child.expect(["Test OK",
                               "Test Failed",
                               "Hello from core ([0-9]*) !",
-                              "Global write lock taken on master "
+                              "Global write lock taken on main "
                               "core ([0-9]*)",
                               pexpect.TIMEOUT], timeout=10)
         # ok
index 02d2e72..8bfb028 100644 (file)
@@ -189,7 +189,7 @@ fast_tests = [
         ['cycles_autotest', true],
         ['debug_autotest', true],
         ['eal_flags_c_opt_autotest', false],
-        ['eal_flags_master_opt_autotest', false],
+        ['eal_flags_main_opt_autotest', false],
         ['eal_flags_n_opt_autotest', false],
         ['eal_flags_hpet_autotest', false],
         ['eal_flags_no_huge_autotest', false],
index afabfe4..f27a56e 100644 (file)
@@ -58,7 +58,7 @@ do_recursive_call(void)
 #endif
 #endif
                        { "test_missing_c_flag", no_action },
-                       { "test_master_lcore_flag", no_action },
+                       { "test_main_lcore_flag", no_action },
                        { "test_invalid_n_flag", no_action },
                        { "test_no_hpet_flag", no_action },
                        { "test_whitelist_flag", no_action },
index 214452e..f10f555 100644 (file)
@@ -456,7 +456,7 @@ test_atomic(void)
 
        printf("usual inc/dec/add/sub functions\n");
 
-       rte_eal_mp_remote_launch(test_atomic_usual, NULL, SKIP_MASTER);
+       rte_eal_mp_remote_launch(test_atomic_usual, NULL, SKIP_MAIN);
        rte_atomic32_set(&synchro, 1);
        rte_eal_mp_wait_lcore();
        rte_atomic32_set(&synchro, 0);
@@ -482,7 +482,7 @@ test_atomic(void)
        rte_atomic32_set(&a32, 0);
        rte_atomic16_set(&a16, 0);
        rte_atomic64_set(&count, 0);
-       rte_eal_mp_remote_launch(test_atomic_tas, NULL, SKIP_MASTER);
+       rte_eal_mp_remote_launch(test_atomic_tas, NULL, SKIP_MAIN);
        rte_atomic32_set(&synchro, 1);
        rte_eal_mp_wait_lcore();
        rte_atomic32_set(&synchro, 0);
@@ -499,7 +499,7 @@ test_atomic(void)
        rte_atomic16_set(&a16, 0);
        rte_atomic64_set(&count, 0);
        rte_eal_mp_remote_launch(test_atomic_addsub_and_return, NULL,
-                                SKIP_MASTER);
+                                SKIP_MAIN);
        rte_atomic32_set(&synchro, 1);
        rte_eal_mp_wait_lcore();
        rte_atomic32_set(&synchro, 0);
@@ -510,8 +510,8 @@ test_atomic(void)
        }
 
        /*
-        * Set a64, a32 and a16 with the same value of minus "number of slave
-        * lcores", launch all slave lcores to atomically increase by one and
+        * Set a64, a32 and a16 with the same value of minus "number of worker
+        * lcores", launch all worker lcores to atomically increase by one and
         * test them respectively.
         * Each lcore should have only one chance to increase a64 by one and
         * then check if it is equal to 0, but there should be only one lcore
@@ -519,7 +519,7 @@ test_atomic(void)
         * Then a variable of "count", initialized to zero, is increased by
         * one if a64, a32 or a16 is 0 after being increased and tested
         * atomically.
-        * We can check if "count" is finally equal to 3 to see if all slave
+        * We can check if "count" is finally equal to 3 to see if all worker
         * lcores performed "atomic inc and test" right.
         */
        printf("inc and test\n");
@@ -533,7 +533,7 @@ test_atomic(void)
        rte_atomic64_set(&a64, (int64_t)(1 - (int64_t)rte_lcore_count()));
        rte_atomic32_set(&a32, (int32_t)(1 - (int32_t)rte_lcore_count()));
        rte_atomic16_set(&a16, (int16_t)(1 - (int16_t)rte_lcore_count()));
-       rte_eal_mp_remote_launch(test_atomic_inc_and_test, NULL, SKIP_MASTER);
+       rte_eal_mp_remote_launch(test_atomic_inc_and_test, NULL, SKIP_MAIN);
        rte_atomic32_set(&synchro, 1);
        rte_eal_mp_wait_lcore();
        rte_atomic32_clear(&synchro);
@@ -544,7 +544,7 @@ test_atomic(void)
        }
 
        /*
-        * Same as above, but this time we set the values to "number of slave
+        * Same as above, but this time we set the values to "number of worker
         * lcores", and decrement instead of increment.
         */
        printf("dec and test\n");
@@ -555,7 +555,7 @@ test_atomic(void)
        rte_atomic64_set(&a64, (int64_t)(rte_lcore_count() - 1));
        rte_atomic32_set(&a32, (int32_t)(rte_lcore_count() - 1));
        rte_atomic16_set(&a16, (int16_t)(rte_lcore_count() - 1));
-       rte_eal_mp_remote_launch(test_atomic_dec_and_test, NULL, SKIP_MASTER);
+       rte_eal_mp_remote_launch(test_atomic_dec_and_test, NULL, SKIP_MAIN);
        rte_atomic32_set(&synchro, 1);
        rte_eal_mp_wait_lcore();
        rte_atomic32_clear(&synchro);
@@ -569,10 +569,10 @@ test_atomic(void)
        /*
         * This case tests the functionality of rte_atomic128_cmp_exchange
         * API. It calls rte_atomic128_cmp_exchange with four kinds of memory
-        * models successively on each slave core. Once each 128-bit atomic
+        * models successively on each worker core. Once each 128-bit atomic
         * compare and swap operation is successful, it updates the global
         * 128-bit counter by 2 for the first 64-bit and 1 for the second
-        * 64-bit. Each slave core iterates this test N times.
+        * 64-bit. Each worker core iterates this test N times.
         * At the end of test, verify whether the first 64-bits of the 128-bit
         * counter and the second 64bits is differ by the total iterations. If
         * it is, the test passes.
@@ -585,7 +585,7 @@ test_atomic(void)
        count128.val[1] = 0;
 
        rte_eal_mp_remote_launch(test_atomic128_cmp_exchange, NULL,
-                                SKIP_MASTER);
+                                SKIP_MAIN);
        rte_atomic32_set(&synchro, 1);
        rte_eal_mp_wait_lcore();
        rte_atomic32_clear(&synchro);
@@ -619,7 +619,7 @@ test_atomic(void)
        token64 = ((uint64_t)get_crc8(&t.u8[0], sizeof(token64) - 1) << 56)
                | (t.u64 & 0x00ffffffffffffff);
 
-       rte_eal_mp_remote_launch(test_atomic_exchange, NULL, SKIP_MASTER);
+       rte_eal_mp_remote_launch(test_atomic_exchange, NULL, SKIP_MAIN);
        rte_atomic32_set(&synchro, 1);
        rte_eal_mp_wait_lcore();
        rte_atomic32_clear(&synchro);
index 43b5f62..c27f8a0 100644 (file)
@@ -236,7 +236,7 @@ plock_test(uint64_t iter, enum plock_use_type utype)
 
        /* test phase - start and wait for completion on each active lcore */
 
-       rte_eal_mp_remote_launch(plock_test1_lcore, lpt, CALL_MASTER);
+       rte_eal_mp_remote_launch(plock_test1_lcore, lpt, CALL_MAIN);
        rte_eal_mp_wait_lcore();
 
        /* validation phase - make sure that shared and local data match */
index 4a16ade..b09a7e9 100644 (file)
@@ -190,7 +190,7 @@ static const char test_buf_shakespeare[] =
        "       servitude: I will no longer endure it, though yet I\n"
        "       know no wise remedy how to avoid it.\n"
        "\n"
-       "ADAM   Yonder comes my master, your brother.\n"
+       "ADAM   Yonder comes my main, your brother.\n"
        "\n"
        "ORLANDO        Go apart, Adam, and thou shalt hear how he will\n";
 
index 6c5305c..384b487 100644 (file)
@@ -717,7 +717,7 @@ testsuite_setup(void)
                /* Identify the Worker Cores
                 * Use 2 worker cores for the device args
                 */
-               RTE_LCORE_FOREACH_SLAVE(i) {
+               RTE_LCORE_FOREACH_WORKER(i) {
                        if (worker_core_count > 1)
                                break;
                        snprintf(vdev_args, sizeof(vdev_args),
index 73d735a..eb889b9 100644 (file)
@@ -862,13 +862,13 @@ test_distributor(void)
                                        sizeof(worker_params.name));
 
                rte_eal_mp_remote_launch(handle_work,
-                               &worker_params, SKIP_MASTER);
+                               &worker_params, SKIP_MAIN);
                if (sanity_test(&worker_params, p) < 0)
                        goto err;
                quit_workers(&worker_params, p);
 
                rte_eal_mp_remote_launch(handle_work_with_free_mbufs,
-                               &worker_params, SKIP_MASTER);
+                               &worker_params, SKIP_MAIN);
                if (sanity_test_with_mbuf_alloc(&worker_params, p) < 0)
                        goto err;
                quit_workers(&worker_params, p);
@@ -876,7 +876,7 @@ test_distributor(void)
                if (rte_lcore_count() > 2) {
                        rte_eal_mp_remote_launch(handle_work_for_shutdown_test,
                                        &worker_params,
-                                       SKIP_MASTER);
+                                       SKIP_MAIN);
                        if (sanity_test_with_worker_shutdown(&worker_params,
                                        p) < 0)
                                goto err;
@@ -884,14 +884,14 @@ test_distributor(void)
 
                        rte_eal_mp_remote_launch(handle_work_for_shutdown_test,
                                        &worker_params,
-                                       SKIP_MASTER);
+                                       SKIP_MAIN);
                        if (test_flush_with_worker_shutdown(&worker_params,
                                        p) < 0)
                                goto err;
                        quit_workers(&worker_params, p);
 
                        rte_eal_mp_remote_launch(handle_and_mark_work,
-                                       &worker_params, SKIP_MASTER);
+                                       &worker_params, SKIP_MAIN);
                        if (sanity_mark_test(&worker_params, p) < 0)
                                goto err;
                        quit_workers(&worker_params, p);
index f153bcf..b25f79a 100644 (file)
@@ -54,10 +54,10 @@ time_cache_line_switch(void)
        /* allocate a full cache line for data, we use only first byte of it */
        uint64_t data[RTE_CACHE_LINE_SIZE*3 / sizeof(uint64_t)];
 
-       unsigned i, slaveid = rte_get_next_lcore(rte_lcore_id(), 0, 0);
+       unsigned int i, workerid = rte_get_next_lcore(rte_lcore_id(), 0, 0);
        volatile uint64_t *pdata = &data[0];
        *pdata = 1;
-       rte_eal_remote_launch((lcore_function_t *)flip_bit, &data[0], slaveid);
+       rte_eal_remote_launch((lcore_function_t *)flip_bit, &data[0], workerid);
        while (*pdata)
                rte_pause();
 
@@ -72,7 +72,7 @@ time_cache_line_switch(void)
        while (*pdata)
                rte_pause();
        *pdata = 2;
-       rte_eal_wait_lcore(slaveid);
+       rte_eal_wait_lcore(workerid);
        printf("==== Cache line switch test ===\n");
        printf("Time for %u iterations = %"PRIu64" ticks\n", (1<<ITER_POWER_CL),
                        end_time-start_time);
@@ -251,13 +251,13 @@ test_distributor_perf(void)
        }
 
        printf("=== Performance test of distributor (single mode) ===\n");
-       rte_eal_mp_remote_launch(handle_work, ds, SKIP_MASTER);
+       rte_eal_mp_remote_launch(handle_work, ds, SKIP_MAIN);
        if (perf_test(ds, p) < 0)
                return -1;
        quit_workers(ds, p);
 
        printf("=== Performance test of distributor (burst mode) ===\n");
-       rte_eal_mp_remote_launch(handle_work, db, SKIP_MASTER);
+       rte_eal_mp_remote_launch(handle_work, db, SKIP_MAIN);
        if (perf_test(db, p) < 0)
                return -1;
        quit_workers(db, p);
index fc7d1a2..da119d4 100644 (file)
@@ -599,10 +599,10 @@ test_missing_c_flag(void)
 }
 
 /*
- * Test --master-lcore option with matching coremask
+ * Test --main-lcore option with matching coremask
  */
 static int
-test_master_lcore_flag(void)
+test_main_lcore_flag(void)
 {
 #ifdef RTE_EXEC_ENV_FREEBSD
        /* BSD target doesn't support prefixes at this point */
@@ -619,34 +619,34 @@ test_master_lcore_flag(void)
        if (!rte_lcore_is_enabled(0) || !rte_lcore_is_enabled(1))
                return TEST_SKIPPED;
 
-       /* --master-lcore flag but no value */
+       /* --main-lcore flag but no value */
        const char *argv1[] = { prgname, prefix, mp_flag,
-                               "-c", "3", "--master-lcore"};
-       /* --master-lcore flag with invalid value */
+                               "-c", "3", "--main-lcore"};
+       /* --main-lcore flag with invalid value */
        const char *argv2[] = { prgname, prefix, mp_flag,
-                               "-c", "3", "--master-lcore", "-1"};
+                               "-c", "3", "--main-lcore", "-1"};
        const char *argv3[] = { prgname, prefix, mp_flag,
-                               "-c", "3", "--master-lcore", "X"};
-       /* master lcore not in coremask */
+                               "-c", "3", "--main-lcore", "X"};
+       /* main lcore not in coremask */
        const char *argv4[] = { prgname, prefix, mp_flag,
-                               "-c", "3", "--master-lcore", "2"};
+                               "-c", "3", "--main-lcore", "2"};
        /* valid value */
        const char *argv5[] = { prgname, prefix, mp_flag,
-                               "-c", "3", "--master-lcore", "1"};
+                               "-c", "3", "--main-lcore", "1"};
        /* valid value set before coremask */
        const char *argv6[] = { prgname, prefix, mp_flag,
-                               "--master-lcore", "1", "-c", "3"};
+                               "--main-lcore", "1", "-c", "3"};
 
        if (launch_proc(argv1) == 0
                        || launch_proc(argv2) == 0
                        || launch_proc(argv3) == 0
                        || launch_proc(argv4) == 0) {
-               printf("Error - process ran without error with wrong --master-lcore\n");
+               printf("Error - process ran without error with wrong --main-lcore\n");
                return -1;
        }
        if (launch_proc(argv5) != 0
                        || launch_proc(argv6) != 0) {
-               printf("Error - process did not run ok with valid --master-lcore\n");
+               printf("Error - process did not run ok with valid --main-lcore\n");
                return -1;
        }
        return 0;
@@ -1468,9 +1468,9 @@ test_eal_flags(void)
                return ret;
        }
 
-       ret = test_master_lcore_flag();
+       ret = test_main_lcore_flag();
        if (ret < 0) {
-               printf("Error in test_master_lcore_flag()\n");
+               printf("Error in test_main_lcore_flag()\n");
                return ret;
        }
 
@@ -1542,7 +1542,7 @@ REGISTER_TEST_COMMAND(eal_flags_autotest, test_eal_flags);
 
 /* subtests used in meson for CI */
 REGISTER_TEST_COMMAND(eal_flags_c_opt_autotest, test_missing_c_flag);
-REGISTER_TEST_COMMAND(eal_flags_master_opt_autotest, test_master_lcore_flag);
+REGISTER_TEST_COMMAND(eal_flags_main_opt_autotest, test_main_lcore_flag);
 REGISTER_TEST_COMMAND(eal_flags_n_opt_autotest, test_invalid_n_flag);
 REGISTER_TEST_COMMAND(eal_flags_hpet_autotest, test_no_hpet_flag);
 REGISTER_TEST_COMMAND(eal_flags_no_huge_autotest, test_no_huge_flag);
index e9df469..180dc47 100644 (file)
@@ -95,7 +95,7 @@ static inline uint8_t efd_get_all_sockets_bitmask(void)
 {
        uint8_t all_cpu_sockets_bitmask = 0;
        unsigned int i;
-       unsigned int next_lcore = rte_get_master_lcore();
+       unsigned int next_lcore = rte_get_main_lcore();
        const int val_true = 1, val_false = 0;
        for (i = 0; i < rte_lcore_count(); i++) {
                all_cpu_sockets_bitmask |= 1 << rte_lcore_to_socket_id(next_lcore);
index d47622d..1c47704 100644 (file)
@@ -33,7 +33,7 @@ static inline uint8_t efd_get_all_sockets_bitmask(void)
 {
        uint8_t all_cpu_sockets_bitmask = 0;
        unsigned int i;
-       unsigned int next_lcore = rte_get_master_lcore();
+       unsigned int next_lcore = rte_get_main_lcore();
        const int val_true = 1, val_false = 0;
        for (i = 0; i < rte_lcore_count(); i++) {
                all_cpu_sockets_bitmask |= 1 << rte_lcore_to_socket_id(next_lcore);
index 2a0c134..231c99a 100644 (file)
@@ -57,8 +57,8 @@ typedef void (*case_clean_t)(unsigned lcore_id);
 static rte_atomic32_t obj_count = RTE_ATOMIC32_INIT(0);
 static rte_atomic32_t synchro = RTE_ATOMIC32_INIT(0);
 
-#define WAIT_SYNCHRO_FOR_SLAVES()   do{ \
-       if (lcore_self != rte_get_master_lcore())                  \
+#define WAIT_SYNCHRO_FOR_WORKERS()   do { \
+       if (lcore_self != rte_get_main_lcore())                  \
                while (rte_atomic32_read(&synchro) == 0);        \
 } while(0)
 
@@ -70,7 +70,7 @@ test_eal_init_once(__rte_unused void *arg)
 {
        unsigned lcore_self =  rte_lcore_id();
 
-       WAIT_SYNCHRO_FOR_SLAVES();
+       WAIT_SYNCHRO_FOR_WORKERS();
 
        rte_atomic32_set(&obj_count, 1); /* silent the check in the caller */
        if (rte_eal_init(0, NULL) != -1)
@@ -106,7 +106,7 @@ ring_create_lookup(__rte_unused void *arg)
        char ring_name[MAX_STRING_SIZE];
        int i;
 
-       WAIT_SYNCHRO_FOR_SLAVES();
+       WAIT_SYNCHRO_FOR_WORKERS();
 
        /* create the same ring simultaneously on all threads */
        for (i = 0; i < MAX_ITER_ONCE; i++) {
@@ -166,7 +166,7 @@ mempool_create_lookup(__rte_unused void *arg)
        char mempool_name[MAX_STRING_SIZE];
        int i;
 
-       WAIT_SYNCHRO_FOR_SLAVES();
+       WAIT_SYNCHRO_FOR_WORKERS();
 
        /* create the same mempool simultaneously on all threads */
        for (i = 0; i < MAX_ITER_ONCE; i++) {
@@ -232,7 +232,7 @@ hash_create_free(__rte_unused void *arg)
                .socket_id = 0,
        };
 
-       WAIT_SYNCHRO_FOR_SLAVES();
+       WAIT_SYNCHRO_FOR_WORKERS();
 
        /* create the same hash simultaneously on all threads */
        hash_params.name = "fr_test_once";
@@ -296,7 +296,7 @@ fbk_create_free(__rte_unused void *arg)
                .init_val = RTE_FBK_HASH_INIT_VAL_DEFAULT,
        };
 
-       WAIT_SYNCHRO_FOR_SLAVES();
+       WAIT_SYNCHRO_FOR_WORKERS();
 
        /* create the same fbk hash table simultaneously on all threads */
        fbk_params.name = "fr_test_once";
@@ -359,7 +359,7 @@ lpm_create_free(__rte_unused void *arg)
        char lpm_name[MAX_STRING_SIZE];
        int i;
 
-       WAIT_SYNCHRO_FOR_SLAVES();
+       WAIT_SYNCHRO_FOR_WORKERS();
 
        /* create the same lpm simultaneously on all threads */
        for (i = 0; i < MAX_ITER_ONCE; i++) {
@@ -430,7 +430,7 @@ launch_test(struct test_case *pt_case)
        rte_atomic32_set(&obj_count, 0);
        rte_atomic32_set(&synchro, 0);
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (cores == 1)
                        break;
                cores--;
@@ -443,7 +443,7 @@ launch_test(struct test_case *pt_case)
                ret = -1;
 
        cores = cores_save;
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (cores == 1)
                        break;
                cores--;
index 46ab45f..afa3c7b 100644 (file)
@@ -64,7 +64,7 @@ test_hash_multiwriter_worker(void *arg)
 
        /*
         * Calculate offset for entries based on the position of the
-        * logical core, from the master core (not counting not enabled cores)
+        * logical core, from the main core (not counting not enabled cores)
         */
        offset = pos_core * tbl_multiwriter_test_params.nb_tsx_insertion;
 
@@ -194,7 +194,7 @@ test_hash_multiwriter(void)
 
        /* Fire all threads. */
        rte_eal_mp_remote_launch(test_hash_multiwriter_worker,
-                                enabled_core_ids, CALL_MASTER);
+                                enabled_core_ids, CALL_MAIN);
        rte_eal_mp_wait_lcore();
 
        count = rte_hash_count(handle);
index 73333df..4860768 100644 (file)
@@ -25,7 +25,7 @@
 #define NUM_TEST 3
 unsigned int core_cnt[NUM_TEST] = {2, 4, 8};
 
-unsigned int slave_core_ids[RTE_MAX_LCORE];
+unsigned int worker_core_ids[RTE_MAX_LCORE];
 struct perf {
        uint32_t single_read;
        uint32_t single_write;
@@ -65,7 +65,7 @@ test_hash_readwrite_worker(__rte_unused void *arg)
        ret = rte_malloc(NULL, sizeof(int) *
                                tbl_rw_test_param.num_insert, 0);
        for (i = 0; i < rte_lcore_count(); i++) {
-               if (slave_core_ids[i] == lcore_id)
+               if (worker_core_ids[i] == lcore_id)
                        break;
        }
        offset = tbl_rw_test_param.num_insert * i;
@@ -206,7 +206,7 @@ test_hash_readwrite_functional(int use_htm, int use_rw_lf, int use_ext)
        uint32_t duplicated_keys = 0;
        uint32_t lost_keys = 0;
        int use_jhash = 1;
-       int slave_cnt = rte_lcore_count() - 1;
+       int worker_cnt = rte_lcore_count() - 1;
        uint32_t tot_insert = 0;
 
        rte_atomic64_init(&gcycles);
@@ -224,11 +224,10 @@ test_hash_readwrite_functional(int use_htm, int use_rw_lf, int use_ext)
                tot_insert = TOTAL_INSERT;
 
        tbl_rw_test_param.num_insert =
-               tot_insert / slave_cnt;
+               tot_insert / worker_cnt;
 
        tbl_rw_test_param.rounded_tot_insert =
-               tbl_rw_test_param.num_insert
-               * slave_cnt;
+               tbl_rw_test_param.num_insert * worker_cnt;
 
        printf("\nHTM = %d, RW-LF = %d, EXT-Table = %d\n",
                use_htm, use_rw_lf, use_ext);
@@ -236,7 +235,7 @@ test_hash_readwrite_functional(int use_htm, int use_rw_lf, int use_ext)
 
        /* Fire all threads. */
        rte_eal_mp_remote_launch(test_hash_readwrite_worker,
-                                NULL, SKIP_MASTER);
+                                NULL, SKIP_MAIN);
        rte_eal_mp_wait_lcore();
 
        while (rte_hash_iterate(tbl_rw_test_param.h, &next_key,
@@ -330,7 +329,7 @@ test_rw_writer(void *arg)
        uint64_t offset;
 
        for (i = 0; i < rte_lcore_count(); i++) {
-               if (slave_core_ids[i] == lcore_id)
+               if (worker_core_ids[i] == lcore_id)
                        break;
        }
 
@@ -433,8 +432,8 @@ test_hash_readwrite_perf(struct perf *perf_results, int use_htm,
        perf_results->single_read = end / i;
 
        for (n = 0; n < NUM_TEST; n++) {
-               unsigned int tot_slave_lcore = rte_lcore_count() - 1;
-               if (tot_slave_lcore < core_cnt[n] * 2)
+               unsigned int tot_worker_lcore = rte_lcore_count() - 1;
+               if (tot_worker_lcore < core_cnt[n] * 2)
                        goto finish;
 
                rte_atomic64_clear(&greads);
@@ -467,7 +466,7 @@ test_hash_readwrite_perf(struct perf *perf_results, int use_htm,
                for (i = 0; i < core_cnt[n]; i++)
                        rte_eal_remote_launch(test_rw_reader,
                                        (void *)(uintptr_t)read_cnt,
-                                       slave_core_ids[i]);
+                                       worker_core_ids[i]);
 
                rte_eal_mp_wait_lcore();
 
@@ -476,7 +475,7 @@ test_hash_readwrite_perf(struct perf *perf_results, int use_htm,
                for (; i < core_cnt[n] * 2; i++)
                        rte_eal_remote_launch(test_rw_writer,
                                        (void *)((uintptr_t)start_coreid),
-                                       slave_core_ids[i]);
+                                       worker_core_ids[i]);
 
                rte_eal_mp_wait_lcore();
 
@@ -521,20 +520,20 @@ test_hash_readwrite_perf(struct perf *perf_results, int use_htm,
                        for (i = core_cnt[n]; i < core_cnt[n] * 2; i++)
                                rte_eal_remote_launch(test_rw_writer,
                                        (void *)((uintptr_t)start_coreid),
-                                       slave_core_ids[i]);
+                                       worker_core_ids[i]);
                        for (i = 0; i < core_cnt[n]; i++)
                                rte_eal_remote_launch(test_rw_reader,
                                        (void *)(uintptr_t)read_cnt,
-                                       slave_core_ids[i]);
+                                       worker_core_ids[i]);
                } else {
                        for (i = 0; i < core_cnt[n]; i++)
                                rte_eal_remote_launch(test_rw_reader,
                                        (void *)(uintptr_t)read_cnt,
-                                       slave_core_ids[i]);
+                                       worker_core_ids[i]);
                        for (; i < core_cnt[n] * 2; i++)
                                rte_eal_remote_launch(test_rw_writer,
                                        (void *)((uintptr_t)start_coreid),
-                                       slave_core_ids[i]);
+                                       worker_core_ids[i]);
                }
 
                rte_eal_mp_wait_lcore();
@@ -626,8 +625,8 @@ test_hash_rw_perf_main(void)
                return TEST_SKIPPED;
        }
 
-       RTE_LCORE_FOREACH_SLAVE(core_id) {
-               slave_core_ids[i] = core_id;
+       RTE_LCORE_FOREACH_WORKER(core_id) {
+               worker_core_ids[i] = core_id;
                i++;
        }
 
@@ -710,8 +709,8 @@ test_hash_rw_func_main(void)
                return TEST_SKIPPED;
        }
 
-       RTE_LCORE_FOREACH_SLAVE(core_id) {
-               slave_core_ids[i] = core_id;
+       RTE_LCORE_FOREACH_WORKER(core_id) {
+               worker_core_ids[i] = core_id;
                i++;
        }
 
index 9acdae1..f53a53e 100644 (file)
@@ -85,7 +85,7 @@ static struct rte_kni_ops kni_ops = {
        .config_promiscusity = NULL,
 };
 
-static unsigned lcore_master, lcore_ingress, lcore_egress;
+static unsigned int lcore_main, lcore_ingress, lcore_egress;
 static struct rte_kni *test_kni_ctx;
 static struct test_kni_stats stats;
 
@@ -202,7 +202,7 @@ error:
  * supported by KNI kernel module. The ingress lcore will allocate mbufs and
  * transmit them to kernel space; while the egress lcore will receive the mbufs
  * from kernel space and free them.
- * On the master lcore, several commands will be run to check handling the
+ * On the main lcore, several commands will be run to check handling the
  * kernel requests. And it will finally set the flag to exit the KNI
  * transmitting/receiving to/from the kernel space.
  *
@@ -217,7 +217,7 @@ test_kni_loop(__rte_unused void *arg)
        const unsigned lcore_id = rte_lcore_id();
        struct rte_mbuf *pkts_burst[PKT_BURST_SZ];
 
-       if (lcore_id == lcore_master) {
+       if (lcore_id == lcore_main) {
                rte_delay_ms(KNI_TIMEOUT_MS);
                /* tests of handling kernel request */
                if (system(IFCONFIG TEST_KNI_PORT" up") == -1)
@@ -276,12 +276,12 @@ test_kni_allocate_lcores(void)
 {
        unsigned i, count = 0;
 
-       lcore_master = rte_get_master_lcore();
-       printf("master lcore: %u\n", lcore_master);
+       lcore_main = rte_get_main_lcore();
+       printf("main lcore: %u\n", lcore_main);
        for (i = 0; i < RTE_MAX_LCORE; i++) {
                if (count >=2 )
                        break;
-               if (rte_lcore_is_enabled(i) && i != lcore_master) {
+               if (rte_lcore_is_enabled(i) && i != lcore_main) {
                        count ++;
                        if (count == 1)
                                lcore_ingress = i;
@@ -487,8 +487,8 @@ test_kni_processing(uint16_t port_id, struct rte_mempool *mp)
        if (ret != 0)
                goto fail_kni;
 
-       rte_eal_mp_remote_launch(test_kni_loop, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       rte_eal_mp_remote_launch(test_kni_loop, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(i) {
                if (rte_eal_wait_lcore(i) < 0) {
                        ret = -1;
                        goto fail_kni;
index 5807679..c5a238b 100644 (file)
@@ -498,7 +498,7 @@ test_lpm_rcu_perf_multi_writer(void)
        }
 
        num_cores = 0;
-       RTE_LCORE_FOREACH_SLAVE(core_id) {
+       RTE_LCORE_FOREACH_WORKER(core_id) {
                enabled_core_ids[num_cores] = core_id;
                num_cores++;
        }
@@ -651,7 +651,7 @@ test_lpm_rcu_perf(void)
        }
 
        num_cores = 0;
-       RTE_LCORE_FOREACH_SLAVE(core_id) {
+       RTE_LCORE_FOREACH_WORKER(core_id) {
                enabled_core_ids[num_cores] = core_id;
                num_cores++;
        }
index fdf77b4..afff0de 100644 (file)
@@ -1010,11 +1010,11 @@ test_malloc(void)
        else printf("test_realloc() passed\n");
 
        /*----------------------------*/
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                rte_eal_remote_launch(test_align_overlap_per_lcore, NULL, lcore_id);
        }
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        ret = -1;
        }
@@ -1025,11 +1025,11 @@ test_malloc(void)
        else printf("test_align_overlap_per_lcore() passed\n");
 
        /*----------------------------*/
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                rte_eal_remote_launch(test_reordered_free_per_lcore, NULL, lcore_id);
        }
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        ret = -1;
        }
@@ -1040,11 +1040,11 @@ test_malloc(void)
        else printf("test_reordered_free_per_lcore() passed\n");
 
        /*----------------------------*/
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                rte_eal_remote_launch(test_random_alloc_free, NULL, lcore_id);
        }
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        ret = -1;
        }
index 06e44f0..80d1850 100644 (file)
@@ -72,7 +72,7 @@
 
 #ifdef RTE_MBUF_REFCNT_ATOMIC
 
-static volatile uint32_t refcnt_stop_slaves;
+static volatile uint32_t refcnt_stop_workers;
 static unsigned refcnt_lcore[RTE_MAX_LCORE];
 
 #endif
@@ -1000,7 +1000,7 @@ test_pktmbuf_free_segment(struct rte_mempool *pktmbuf_pool)
 #ifdef RTE_MBUF_REFCNT_ATOMIC
 
 static int
-test_refcnt_slave(void *arg)
+test_refcnt_worker(void *arg)
 {
        unsigned lcore, free;
        void *mp = 0;
@@ -1010,7 +1010,7 @@ test_refcnt_slave(void *arg)
        printf("%s started at lcore %u\n", __func__, lcore);
 
        free = 0;
-       while (refcnt_stop_slaves == 0) {
+       while (refcnt_stop_workers == 0) {
                if (rte_ring_dequeue(refcnt_mbuf_ring, &mp) == 0) {
                        free++;
                        rte_pktmbuf_free(mp);
@@ -1038,7 +1038,7 @@ test_refcnt_iter(unsigned int lcore, unsigned int iter,
        /* For each mbuf in the pool:
         * - allocate mbuf,
         * - increment it's reference up to N+1,
-        * - enqueue it N times into the ring for slave cores to free.
+        * - enqueue it N times into the ring for worker cores to free.
         */
        for (i = 0, n = rte_mempool_avail_count(refcnt_pool);
            i != n && (m = rte_pktmbuf_alloc(refcnt_pool)) != NULL;
@@ -1062,7 +1062,7 @@ test_refcnt_iter(unsigned int lcore, unsigned int iter,
                rte_panic("(lcore=%u, iter=%u): was able to allocate only "
                          "%u from %u mbufs\n", lcore, iter, i, n);
 
-       /* wait till slave lcores  will consume all mbufs */
+       /* wait till worker lcores  will consume all mbufs */
        while (!rte_ring_empty(refcnt_mbuf_ring))
                ;
 
@@ -1083,7 +1083,7 @@ test_refcnt_iter(unsigned int lcore, unsigned int iter,
 }
 
 static int
-test_refcnt_master(struct rte_mempool *refcnt_pool,
+test_refcnt_main(struct rte_mempool *refcnt_pool,
                   struct rte_ring *refcnt_mbuf_ring)
 {
        unsigned i, lcore;
@@ -1094,7 +1094,7 @@ test_refcnt_master(struct rte_mempool *refcnt_pool,
        for (i = 0; i != REFCNT_MAX_ITER; i++)
                test_refcnt_iter(lcore, i, refcnt_pool, refcnt_mbuf_ring);
 
-       refcnt_stop_slaves = 1;
+       refcnt_stop_workers = 1;
        rte_wmb();
 
        printf("%s finished at lcore %u\n", __func__, lcore);
@@ -1107,7 +1107,7 @@ static int
 test_refcnt_mbuf(void)
 {
 #ifdef RTE_MBUF_REFCNT_ATOMIC
-       unsigned int master, slave, tref;
+       unsigned int main_lcore, worker, tref;
        int ret = -1;
        struct rte_mempool *refcnt_pool = NULL;
        struct rte_ring *refcnt_mbuf_ring = NULL;
@@ -1126,39 +1126,38 @@ test_refcnt_mbuf(void)
                                              SOCKET_ID_ANY);
        if (refcnt_pool == NULL) {
                printf("%s: cannot allocate " MAKE_STRING(refcnt_pool) "\n",
-                   __func__);
+                      __func__);
                return -1;
        }
 
        refcnt_mbuf_ring = rte_ring_create("refcnt_mbuf_ring",
-                       rte_align32pow2(REFCNT_RING_SIZE), SOCKET_ID_ANY,
-                                       RING_F_SP_ENQ);
+                                          rte_align32pow2(REFCNT_RING_SIZE), SOCKET_ID_ANY,
+                                          RING_F_SP_ENQ);
        if (refcnt_mbuf_ring == NULL) {
                printf("%s: cannot allocate " MAKE_STRING(refcnt_mbuf_ring)
-                   "\n", __func__);
+                      "\n", __func__);
                goto err;
        }
 
-       refcnt_stop_slaves = 0;
+       refcnt_stop_workers = 0;
        memset(refcnt_lcore, 0, sizeof (refcnt_lcore));
 
-       rte_eal_mp_remote_launch(test_refcnt_slave, refcnt_mbuf_ring,
-                                SKIP_MASTER);
+       rte_eal_mp_remote_launch(test_refcnt_worker, refcnt_mbuf_ring, SKIP_MAIN);
 
-       test_refcnt_master(refcnt_pool, refcnt_mbuf_ring);
+       test_refcnt_main(refcnt_pool, refcnt_mbuf_ring);
 
        rte_eal_mp_wait_lcore();
 
        /* check that we porcessed all references */
        tref = 0;
-       master = rte_get_master_lcore();
+       main_lcore = rte_get_main_lcore();
 
-       RTE_LCORE_FOREACH_SLAVE(slave)
-               tref += refcnt_lcore[slave];
+       RTE_LCORE_FOREACH_WORKER(worker)
+               tref += refcnt_lcore[worker];
 
-       if (tref != refcnt_lcore[master])
+       if (tref != refcnt_lcore[main_lcore])
                rte_panic("referenced mbufs: %u, freed mbufs: %u\n",
-                         tref, refcnt_lcore[master]);
+                         tref, refcnt_lcore[main_lcore]);
 
        rte_mempool_dump(stdout, refcnt_pool);
        rte_ring_dump(stdout, refcnt_mbuf_ring);
index ddccaaf..fbca787 100644 (file)
@@ -28,7 +28,7 @@
  * These tests are derived from spin lock test cases.
  *
  * - The functional test takes all of these locks and launches the
- *   ''test_mcslock_per_core()'' function on each core (except the master).
+ *   ''test_mcslock_per_core()'' function on each core (except the main).
  *
  *   - The function takes the global lock, display something, then releases
  *     the global lock on each core.
@@ -123,9 +123,9 @@ test_mcslock_perf(void)
        printf("\nTest with lock on %u cores...\n", (rte_lcore_count()));
 
        rte_atomic32_set(&synchro, 0);
-       rte_eal_mp_remote_launch(load_loop_fn, &lock, SKIP_MASTER);
+       rte_eal_mp_remote_launch(load_loop_fn, &lock, SKIP_MAIN);
 
-       /* start synchro and launch test on master */
+       /* start synchro and launch test on main */
        rte_atomic32_set(&synchro, 1);
        load_loop_fn(&lock);
 
@@ -154,8 +154,8 @@ test_mcslock_try(__rte_unused void *arg)
        rte_mcslock_t ml_me     = RTE_PER_LCORE(_ml_me);
        rte_mcslock_t ml_try_me = RTE_PER_LCORE(_ml_try_me);
 
-       /* Locked ml_try in the master lcore, so it should fail
-        * when trying to lock it in the slave lcore.
+       /* Locked ml_try in the main lcore, so it should fail
+        * when trying to lock it in the worker lcore.
         */
        if (rte_mcslock_trylock(&p_ml_try, &ml_try_me) == 0) {
                rte_mcslock_lock(&p_ml, &ml_me);
@@ -185,20 +185,20 @@ test_mcslock(void)
         * Test mcs lock & unlock on each core
         */
 
-       /* slave cores should be waiting: print it */
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       /* worker cores should be waiting: print it */
+       RTE_LCORE_FOREACH_WORKER(i) {
                printf("lcore %d state: %d\n", i,
                                (int) rte_eal_get_lcore_state(i));
        }
 
        rte_mcslock_lock(&p_ml, &ml_me);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_eal_remote_launch(test_mcslock_per_core, NULL, i);
        }
 
-       /* slave cores should be busy: print it */
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       /* worker cores should be busy: print it */
+       RTE_LCORE_FOREACH_WORKER(i) {
                printf("lcore %d state: %d\n", i,
                                (int) rte_eal_get_lcore_state(i));
        }
@@ -210,19 +210,19 @@ test_mcslock(void)
        /*
         * Test if it could return immediately from try-locking a locked object.
         * Here it will lock the mcs lock object first, then launch all the
-        * slave lcores to trylock the same mcs lock object.
-        * All the slave lcores should give up try-locking a locked object and
+        * worker lcores to trylock the same mcs lock object.
+        * All the worker lcores should give up try-locking a locked object and
         * return immediately, and then increase the "count" initialized with
         * zero by one per times.
         * We can check if the "count" is finally equal to the number of all
-        * slave lcores to see if the behavior of try-locking a locked
+        * worker lcores to see if the behavior of try-locking a locked
         * mcslock object is correct.
         */
        if (rte_mcslock_trylock(&p_ml_try, &ml_try_me) == 0)
                return -1;
 
        count = 0;
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_eal_remote_launch(test_mcslock_try, NULL, i);
        }
        rte_eal_mp_wait_lcore();
index 60bda8a..d7d0aaa 100644 (file)
@@ -143,8 +143,8 @@ per_lcore_mempool_test(void *arg)
 
        stats[lcore_id].enq_count = 0;
 
-       /* wait synchro for slaves */
-       if (lcore_id != rte_get_master_lcore())
+       /* wait synchro for workers */
+       if (lcore_id != rte_get_main_lcore())
                while (rte_atomic32_read(&synchro) == 0);
 
        start_cycles = rte_get_timer_cycles();
@@ -214,7 +214,7 @@ launch_cores(struct rte_mempool *mp, unsigned int cores)
                return -1;
        }
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (cores == 1)
                        break;
                cores--;
@@ -222,13 +222,13 @@ launch_cores(struct rte_mempool *mp, unsigned int cores)
                                      mp, lcore_id);
        }
 
-       /* start synchro and launch test on master */
+       /* start synchro and launch test on main */
        rte_atomic32_set(&synchro, 1);
 
        ret = per_lcore_mempool_test(mp);
 
        cores = cores_save;
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (cores == 1)
                        break;
                cores--;
index e1a7b4a..5b6f05d 100644 (file)
@@ -94,7 +94,7 @@ run_secondary_instances(void)
 #endif
 
        snprintf(coremask, sizeof(coremask), "%x", \
-                       (1 << rte_get_master_lcore()));
+                       (1 << rte_get_main_lcore()));
 
        ret |= launch_proc(argv1);
        printf("### Testing rte_mp_disable() reject:\n");
index 6a1180b..21fcc1b 100644 (file)
@@ -184,7 +184,7 @@ run_pdump_server_tests(void)
        };
 
        snprintf(coremask, sizeof(coremask), "%x",
-                (1 << rte_get_master_lcore()));
+                (1 << rte_get_main_lcore()));
 
        ret = test_pdump_init();
        ret |= launch_p(argv1);
index fcd0021..129578d 100644 (file)
@@ -73,31 +73,31 @@ test_per_lcore(void)
        unsigned lcore_id;
        int ret;
 
-       rte_eal_mp_remote_launch(assign_vars, NULL, SKIP_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(assign_vars, NULL, SKIP_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
 
-       rte_eal_mp_remote_launch(display_vars, NULL, SKIP_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(display_vars, NULL, SKIP_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
 
        /* test if it could do remote launch twice at the same time or not */
-       ret = rte_eal_mp_remote_launch(test_per_lcore_delay, NULL, SKIP_MASTER);
+       ret = rte_eal_mp_remote_launch(test_per_lcore_delay, NULL, SKIP_MAIN);
        if (ret < 0) {
                printf("It fails to do remote launch but it should able to do\n");
                return -1;
        }
        /* it should not be able to launch a lcore which is running */
-       ret = rte_eal_mp_remote_launch(test_per_lcore_delay, NULL, SKIP_MASTER);
+       ret = rte_eal_mp_remote_launch(test_per_lcore_delay, NULL, SKIP_MAIN);
        if (ret == 0) {
                printf("It does remote launch successfully but it should not at this time\n");
                return -1;
        }
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index 49a805c..4db816a 100644 (file)
@@ -275,7 +275,7 @@ alloc_lcore(uint16_t socketid)
        for (lcore_id = 0; lcore_id < RTE_MAX_LCORE; lcore_id++) {
                if (LCORE_AVAIL != lcore_conf[lcore_id].status ||
                    lcore_conf[lcore_id].socketid != socketid ||
-                   lcore_id == rte_get_master_lcore())
+                   lcore_id == rte_get_main_lcore())
                        continue;
                lcore_conf[lcore_id].status = LCORE_USED;
                lcore_conf[lcore_id].nb_ports = 0;
@@ -661,7 +661,7 @@ exec_burst(uint32_t flags, int lcore)
 static int
 test_pmd_perf(void)
 {
-       uint16_t nb_ports, num, nb_lcores, slave_id = (uint16_t)-1;
+       uint16_t nb_ports, num, nb_lcores, worker_id = (uint16_t)-1;
        uint16_t nb_rxd = MAX_TRAFFIC_BURST;
        uint16_t nb_txd = MAX_TRAFFIC_BURST;
        uint16_t portid;
@@ -699,13 +699,13 @@ test_pmd_perf(void)
        RTE_ETH_FOREACH_DEV(portid) {
                if (socketid == -1) {
                        socketid = rte_eth_dev_socket_id(portid);
-                       slave_id = alloc_lcore(socketid);
-                       if (slave_id == (uint16_t)-1) {
+                       worker_id = alloc_lcore(socketid);
+                       if (worker_id == (uint16_t)-1) {
                                printf("No avail lcore to run test\n");
                                return -1;
                        }
                        printf("Performance test runs on lcore %u socket %u\n",
-                              slave_id, socketid);
+                              worker_id, socketid);
                }
 
                if (socketid != rte_eth_dev_socket_id(portid)) {
@@ -762,8 +762,8 @@ test_pmd_perf(void)
                                 "rte_eth_promiscuous_enable: err=%s, port=%d\n",
                                 rte_strerror(-ret), portid);
 
-               lcore_conf[slave_id].portlist[num++] = portid;
-               lcore_conf[slave_id].nb_ports++;
+               lcore_conf[worker_id].portlist[num++] = portid;
+               lcore_conf[worker_id].nb_ports++;
        }
        check_all_ports_link_status(nb_ports, RTE_PORT_ALL);
 
@@ -788,13 +788,13 @@ test_pmd_perf(void)
                if (NULL == do_measure)
                        do_measure = measure_rxtx;
 
-               rte_eal_remote_launch(main_loop, NULL, slave_id);
+               rte_eal_remote_launch(main_loop, NULL, worker_id);
 
-               if (rte_eal_wait_lcore(slave_id) < 0)
+               if (rte_eal_wait_lcore(worker_id) < 0)
                        return -1;
        } else if (sc_flag == SC_BURST_POLL_FIRST ||
                   sc_flag == SC_BURST_XMIT_FIRST)
-               if (exec_burst(sc_flag, slave_id) < 0)
+               if (exec_burst(sc_flag, worker_id) < 0)
                        return -1;
 
        /* port tear down */
index 0a9e5ec..7ae66e4 100644 (file)
@@ -1327,7 +1327,7 @@ test_rcu_qsbr_main(void)
        }
 
        num_cores = 0;
-       RTE_LCORE_FOREACH_SLAVE(core_id) {
+       RTE_LCORE_FOREACH_WORKER(core_id) {
                enabled_core_ids[num_cores] = core_id;
                num_cores++;
        }
index d35a6d0..3017e71 100644 (file)
@@ -625,7 +625,7 @@ test_rcu_qsbr_main(void)
        rte_atomic64_init(&check_cycles);
 
        num_cores = 0;
-       RTE_LCORE_FOREACH_SLAVE(core_id) {
+       RTE_LCORE_FOREACH_WORKER(core_id) {
                enabled_core_ids[num_cores] = core_id;
                num_cores++;
        }
index ac9bf56..e63e25a 100644 (file)
@@ -297,7 +297,7 @@ run_on_core_pair(struct lcore_pair *cores, struct rte_ring *r, const int esize)
                lcore_count = 0;
                param1.size = param2.size = bulk_sizes[i];
                param1.r = param2.r = r;
-               if (cores->c1 == rte_get_master_lcore()) {
+               if (cores->c1 == rte_get_main_lcore()) {
                        rte_eal_remote_launch(f2, &param2, cores->c2);
                        f1(&param1);
                        rte_eal_wait_lcore(cores->c2);
@@ -340,8 +340,8 @@ load_loop_fn_helper(struct thread_params *p, const int esize)
        if (burst == NULL)
                return -1;
 
-       /* wait synchro for slaves */
-       if (lcore != rte_get_master_lcore())
+       /* wait synchro for workers */
+       if (lcore != rte_get_main_lcore())
                while (rte_atomic32_read(&synchro) == 0)
                        rte_pause();
 
@@ -397,12 +397,12 @@ run_on_all_cores(struct rte_ring *r, const int esize)
                param.size = bulk_sizes[i];
                param.r = r;
 
-               /* clear synchro and start slaves */
+               /* clear synchro and start workers */
                rte_atomic32_set(&synchro, 0);
-               if (rte_eal_mp_remote_launch(lcore_f, &param, SKIP_MASTER) < 0)
+               if (rte_eal_mp_remote_launch(lcore_f, &param, SKIP_MAIN) < 0)
                        return -1;
 
-               /* start synchro and launch test on master */
+               /* start synchro and launch test on main */
                rte_atomic32_set(&synchro, 1);
                lcore_f(&param);
 
@@ -553,7 +553,7 @@ test_ring_perf_esize(const int esize)
                        goto test_fail;
        }
 
-       printf("\n### Testing using all slave nodes ###\n");
+       printf("\n### Testing using all worker nodes ###\n");
        if (run_on_all_cores(r, esize) < 0)
                goto test_fail;
 
index 222d62b..3b9a480 100644 (file)
@@ -6,7 +6,7 @@
 
 /**
  * Stress test for ring enqueue/dequeue operations.
- * Performs the following pattern on each slave worker:
+ * Performs the following pattern on each worker:
  * dequeue/read-write data from the dequeued objects/enqueue.
  * Serves as both functional and performance test of ring
  * enqueue/dequeue operations under high contention
@@ -348,8 +348,8 @@ test_mt1(int (*test)(void *))
 
        memset(arg, 0, sizeof(arg));
 
-       /* launch on all slaves */
-       RTE_LCORE_FOREACH_SLAVE(lc) {
+       /* launch on all workers */
+       RTE_LCORE_FOREACH_WORKER(lc) {
                arg[lc].rng = r;
                arg[lc].stats = init_stat;
                rte_eal_remote_launch(test, &arg[lc], lc);
@@ -365,12 +365,12 @@ test_mt1(int (*test)(void *))
        wrk_cmd = WRK_CMD_STOP;
        rte_smp_wmb();
 
-       /* wait for slaves and collect stats. */
+       /* wait for workers and collect stats. */
        mc = rte_lcore_id();
        arg[mc].stats = init_stat;
 
        rc = 0;
-       RTE_LCORE_FOREACH_SLAVE(lc) {
+       RTE_LCORE_FOREACH_WORKER(lc) {
                rc |= rte_eal_wait_lcore(lc);
                lcore_stat_aggr(&arg[mc].stats, &arg[lc].stats);
                if (verbose != 0)
index 61bee7d..701187f 100644 (file)
@@ -99,8 +99,8 @@ load_loop_fn(__rte_unused void *arg)
        uint64_t lcount = 0;
        const unsigned int lcore = rte_lcore_id();
 
-       /* wait synchro for slaves */
-       if (lcore != rte_get_master_lcore())
+       /* wait synchro for workers */
+       if (lcore != rte_get_main_lcore())
                while (rte_atomic32_read(&synchro) == 0)
                        ;
 
@@ -134,12 +134,12 @@ test_rwlock_perf(void)
 
        printf("\nRwlock Perf Test on %u cores...\n", rte_lcore_count());
 
-       /* clear synchro and start slaves */
+       /* clear synchro and start workers */
        rte_atomic32_set(&synchro, 0);
-       if (rte_eal_mp_remote_launch(load_loop_fn, NULL, SKIP_MASTER) < 0)
+       if (rte_eal_mp_remote_launch(load_loop_fn, NULL, SKIP_MAIN) < 0)
                return -1;
 
-       /* start synchro and launch test on master */
+       /* start synchro and launch test on main */
        rte_atomic32_set(&synchro, 1);
        load_loop_fn(NULL);
 
@@ -161,7 +161,7 @@ test_rwlock_perf(void)
  * - There is a global rwlock and a table of rwlocks (one per lcore).
  *
  * - The test function takes all of these locks and launches the
- *   ``test_rwlock_per_core()`` function on each core (except the master).
+ *   ``test_rwlock_per_core()`` function on each core (except the main).
  *
  *   - The function takes the global write lock, display something,
  *     then releases the global lock.
@@ -187,21 +187,21 @@ rwlock_test1(void)
 
        rte_rwlock_write_lock(&sl);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_rwlock_write_lock(&sl_tab[i]);
                rte_eal_remote_launch(test_rwlock_per_core, NULL, i);
        }
 
        rte_rwlock_write_unlock(&sl);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_rwlock_write_unlock(&sl_tab[i]);
                rte_delay_ms(100);
        }
 
        rte_rwlock_write_lock(&sl);
        /* this message should be the last message of test */
-       printf("Global write lock taken on master core %u\n", rte_lcore_id());
+       printf("Global write lock taken on main core %u\n", rte_lcore_id());
        rte_rwlock_write_unlock(&sl);
 
        rte_eal_mp_wait_lcore();
@@ -462,26 +462,26 @@ try_rwlock_test_rda(void)
        try_test_reset();
 
        /* start read test on all avaialble lcores */
-       rte_eal_mp_remote_launch(try_read_lcore, NULL, CALL_MASTER);
+       rte_eal_mp_remote_launch(try_read_lcore, NULL, CALL_MAIN);
        rte_eal_mp_wait_lcore();
 
        return process_try_lcore_stats();
 }
 
-/* all slave lcores grab RDLOCK, master one grabs WRLOCK */
+/* all worker lcores grab RDLOCK, main one grabs WRLOCK */
 static int
 try_rwlock_test_rds_wrm(void)
 {
        try_test_reset();
 
-       rte_eal_mp_remote_launch(try_read_lcore, NULL, SKIP_MASTER);
+       rte_eal_mp_remote_launch(try_read_lcore, NULL, SKIP_MAIN);
        try_write_lcore(NULL);
        rte_eal_mp_wait_lcore();
 
        return process_try_lcore_stats();
 }
 
-/* master and even slave lcores grab RDLOCK, odd lcores grab WRLOCK */
+/* main and even worker lcores grab RDLOCK, odd lcores grab WRLOCK */
 static int
 try_rwlock_test_rde_wro(void)
 {
@@ -489,7 +489,7 @@ try_rwlock_test_rde_wro(void)
 
        try_test_reset();
 
-       mlc = rte_get_master_lcore();
+       mlc = rte_get_main_lcore();
 
        RTE_LCORE_FOREACH(lc) {
                if (lc != mlc) {
index 44b6fc3..37d7172 100644 (file)
@@ -30,7 +30,7 @@ static int
 testsuite_setup(void)
 {
        slcore_id = rte_get_next_lcore(/* start core */ -1,
-                                      /* skip master */ 1,
+                                      /* skip main */ 1,
                                       /* wrap */ 0);
 
        return TEST_SUCCESS;
@@ -561,12 +561,12 @@ service_lcore_add_del(void)
        TEST_ASSERT_EQUAL(1, rte_service_lcore_count(),
                        "Service core count not equal to one");
        uint32_t slcore_1 = rte_get_next_lcore(/* start core */ -1,
-                                              /* skip master */ 1,
+                                              /* skip main */ 1,
                                               /* wrap */ 0);
        TEST_ASSERT_EQUAL(0, rte_service_lcore_add(slcore_1),
                        "Service core add did not return zero");
        uint32_t slcore_2 = rte_get_next_lcore(/* start core */ slcore_1,
-                                              /* skip master */ 1,
+                                              /* skip main */ 1,
                                               /* wrap */ 0);
        TEST_ASSERT_EQUAL(0, rte_service_lcore_add(slcore_2),
                        "Service core add did not return zero");
@@ -612,12 +612,12 @@ service_threaded_test(int mt_safe)
 
        /* add next 2 cores */
        uint32_t slcore_1 = rte_get_next_lcore(/* start core */ -1,
-                                              /* skip master */ 1,
+                                              /* skip main */ 1,
                                               /* wrap */ 0);
        TEST_ASSERT_EQUAL(0, rte_service_lcore_add(slcore_1),
                        "mt safe lcore add fail");
        uint32_t slcore_2 = rte_get_next_lcore(/* start core */ slcore_1,
-                                              /* skip master */ 1,
+                                              /* skip main */ 1,
                                               /* wrap */ 0);
        TEST_ASSERT_EQUAL(0, rte_service_lcore_add(slcore_2),
                        "mt safe lcore add fail");
@@ -951,10 +951,10 @@ service_active_two_cores(void)
        int i;
 
        uint32_t lcore = rte_get_next_lcore(/* start core */ -1,
-                                           /* skip master */ 1,
+                                           /* skip main */ 1,
                                            /* wrap */ 0);
        uint32_t slcore = rte_get_next_lcore(/* start core */ lcore,
-                                            /* skip master */ 1,
+                                            /* skip main */ 1,
                                             /* wrap */ 0);
 
        /* start the service on the second available lcore */
index 842990e..054fb43 100644 (file)
@@ -28,7 +28,7 @@
  * - There is a global spinlock and a table of spinlocks (one per lcore).
  *
  * - The test function takes all of these locks and launches the
- *   ``test_spinlock_per_core()`` function on each core (except the master).
+ *   ``test_spinlock_per_core()`` function on each core (except the main).
  *
  *   - The function takes the global lock, display something, then releases
  *     the global lock.
@@ -109,8 +109,8 @@ load_loop_fn(void *func_param)
        const int use_lock = *(int*)func_param;
        const unsigned lcore = rte_lcore_id();
 
-       /* wait synchro for slaves */
-       if (lcore != rte_get_master_lcore())
+       /* wait synchro for workers */
+       if (lcore != rte_get_main_lcore())
                while (rte_atomic32_read(&synchro) == 0);
 
        begin = rte_get_timer_cycles();
@@ -149,11 +149,11 @@ test_spinlock_perf(void)
 
        printf("\nTest with lock on %u cores...\n", rte_lcore_count());
 
-       /* Clear synchro and start slaves */
+       /* Clear synchro and start workers */
        rte_atomic32_set(&synchro, 0);
-       rte_eal_mp_remote_launch(load_loop_fn, &lock, SKIP_MASTER);
+       rte_eal_mp_remote_launch(load_loop_fn, &lock, SKIP_MAIN);
 
-       /* start synchro and launch test on master */
+       /* start synchro and launch test on main */
        rte_atomic32_set(&synchro, 1);
        load_loop_fn(&lock);
 
@@ -200,8 +200,8 @@ test_spinlock(void)
        int ret = 0;
        int i;
 
-       /* slave cores should be waiting: print it */
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       /* worker cores should be waiting: print it */
+       RTE_LCORE_FOREACH_WORKER(i) {
                printf("lcore %d state: %d\n", i,
                       (int) rte_eal_get_lcore_state(i));
        }
@@ -214,19 +214,19 @@ test_spinlock(void)
 
        rte_spinlock_lock(&sl);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_spinlock_lock(&sl_tab[i]);
                rte_eal_remote_launch(test_spinlock_per_core, NULL, i);
        }
 
-       /* slave cores should be busy: print it */
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       /* worker cores should be busy: print it */
+       RTE_LCORE_FOREACH_WORKER(i) {
                printf("lcore %d state: %d\n", i,
                       (int) rte_eal_get_lcore_state(i));
        }
        rte_spinlock_unlock(&sl);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_spinlock_unlock(&sl_tab[i]);
                rte_delay_ms(10);
        }
@@ -245,7 +245,7 @@ test_spinlock(void)
        } else
                rte_spinlock_recursive_unlock(&slr);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_eal_remote_launch(test_spinlock_recursive_per_core, NULL, i);
        }
        rte_spinlock_recursive_unlock(&slr);
@@ -253,12 +253,12 @@ test_spinlock(void)
 
        /*
         * Test if it could return immediately from try-locking a locked object.
-        * Here it will lock the spinlock object first, then launch all the slave
+        * Here it will lock the spinlock object first, then launch all the worker
         * lcores to trylock the same spinlock object.
-        * All the slave lcores should give up try-locking a locked object and
+        * All the worker lcores should give up try-locking a locked object and
         * return immediately, and then increase the "count" initialized with zero
         * by one per times.
-        * We can check if the "count" is finally equal to the number of all slave
+        * We can check if the "count" is finally equal to the number of all worker
         * lcores to see if the behavior of try-locking a locked spinlock object
         * is correct.
         */
@@ -266,7 +266,7 @@ test_spinlock(void)
                return -1;
        }
        count = 0;
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_eal_remote_launch(test_spinlock_try, NULL, i);
        }
        rte_eal_mp_wait_lcore();
index 463460c..02422a3 100644 (file)
@@ -328,7 +328,7 @@ test_stack_multithreaded(uint32_t flags)
 
        thread_test_args.s = s;
 
-       if (rte_eal_mp_remote_launch(stack_thread_push_pop, NULL, CALL_MASTER))
+       if (rte_eal_mp_remote_launch(stack_thread_push_pop, NULL, CALL_MAIN))
                rte_panic("Failed to launch tests\n");
 
        RTE_LCORE_FOREACH(lcore_id) {
index 3ab7267..3590625 100644 (file)
@@ -180,7 +180,7 @@ run_on_core_pair(struct lcore_pair *cores, struct rte_stack *s,
                args[0].sz = args[1].sz = bulk_sizes[i];
                args[0].s = args[1].s = s;
 
-               if (cores->c1 == rte_get_master_lcore()) {
+               if (cores->c1 == rte_get_main_lcore()) {
                        rte_eal_remote_launch(fn, &args[1], cores->c2);
                        fn(&args[0]);
                        rte_eal_wait_lcore(cores->c2);
@@ -210,7 +210,7 @@ run_on_n_cores(struct rte_stack *s, lcore_function_t fn, int n)
 
                rte_atomic32_set(&lcore_barrier, n);
 
-               RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+               RTE_LCORE_FOREACH_WORKER(lcore_id) {
                        if (++cnt >= n)
                                break;
 
@@ -235,7 +235,7 @@ run_on_n_cores(struct rte_stack *s, lcore_function_t fn, int n)
                avg = args[rte_lcore_id()].avg;
 
                cnt = 0;
-               RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+               RTE_LCORE_FOREACH_WORKER(lcore_id) {
                        if (++cnt >= n)
                                break;
                        avg += args[lcore_id].avg;
index 66ab3d1..7aab866 100644 (file)
@@ -28,7 +28,7 @@
  * - There is a global ticketlock and a table of ticketlocks (one per lcore).
  *
  * - The test function takes all of these locks and launches the
- *   ``test_ticketlock_per_core()`` function on each core (except the master).
+ *   ``test_ticketlock_per_core()`` function on each core (except the main).
  *
  *   - The function takes the global lock, display something, then releases
  *     the global lock.
@@ -110,8 +110,8 @@ load_loop_fn(void *func_param)
        const int use_lock = *(int *)func_param;
        const unsigned int lcore = rte_lcore_id();
 
-       /* wait synchro for slaves */
-       if (lcore != rte_get_master_lcore())
+       /* wait synchro for workers */
+       if (lcore != rte_get_main_lcore())
                while (rte_atomic32_read(&synchro) == 0)
                        ;
 
@@ -154,11 +154,11 @@ test_ticketlock_perf(void)
        lcount = 0;
        printf("\nTest with lock on %u cores...\n", rte_lcore_count());
 
-       /* Clear synchro and start slaves */
+       /* Clear synchro and start workers */
        rte_atomic32_set(&synchro, 0);
-       rte_eal_mp_remote_launch(load_loop_fn, &lock, SKIP_MASTER);
+       rte_eal_mp_remote_launch(load_loop_fn, &lock, SKIP_MAIN);
 
-       /* start synchro and launch test on master */
+       /* start synchro and launch test on main */
        rte_atomic32_set(&synchro, 1);
        load_loop_fn(&lock);
 
@@ -208,8 +208,8 @@ test_ticketlock(void)
        int ret = 0;
        int i;
 
-       /* slave cores should be waiting: print it */
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       /* worker cores should be waiting: print it */
+       RTE_LCORE_FOREACH_WORKER(i) {
                printf("lcore %d state: %d\n", i,
                       (int) rte_eal_get_lcore_state(i));
        }
@@ -217,25 +217,25 @@ test_ticketlock(void)
        rte_ticketlock_init(&tl);
        rte_ticketlock_init(&tl_try);
        rte_ticketlock_recursive_init(&tlr);
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_ticketlock_init(&tl_tab[i]);
        }
 
        rte_ticketlock_lock(&tl);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_ticketlock_lock(&tl_tab[i]);
                rte_eal_remote_launch(test_ticketlock_per_core, NULL, i);
        }
 
-       /* slave cores should be busy: print it */
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       /* worker cores should be busy: print it */
+       RTE_LCORE_FOREACH_WORKER(i) {
                printf("lcore %d state: %d\n", i,
                       (int) rte_eal_get_lcore_state(i));
        }
        rte_ticketlock_unlock(&tl);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_ticketlock_unlock(&tl_tab[i]);
                rte_delay_ms(10);
        }
@@ -254,7 +254,7 @@ test_ticketlock(void)
        } else
                rte_ticketlock_recursive_unlock(&tlr);
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_eal_remote_launch(test_ticketlock_recursive_per_core,
                                        NULL, i);
        }
@@ -264,19 +264,19 @@ test_ticketlock(void)
        /*
         * Test if it could return immediately from try-locking a locked object.
         * Here it will lock the ticketlock object first, then launch all the
-        * slave lcores to trylock the same ticketlock object.
-        * All the slave lcores should give up try-locking a locked object and
+        * worker lcores to trylock the same ticketlock object.
+        * All the worker lcores should give up try-locking a locked object and
         * return immediately, and then increase the "count" initialized with
         * zero by one per times.
         * We can check if the "count" is finally equal to the number of all
-        * slave lcores to see if the behavior of try-locking a locked
+        * worker lcores to see if the behavior of try-locking a locked
         * ticketlock object is correct.
         */
        if (rte_ticketlock_trylock(&tl_try) == 0)
                return -1;
 
        count = 0;
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                rte_eal_remote_launch(test_ticketlock_try, NULL, i);
        }
        rte_eal_mp_wait_lcore();
index 5933f56..a10b2fe 100644 (file)
@@ -37,7 +37,7 @@
  *    - All cores then simultaneously are set to schedule all the timers at
  *      the same time, so conflicts should occur.
  *    - Then there is a delay while we wait for the timers to expire
- *    - Then the master lcore calls timer_manage() and we check that all
+ *    - Then the main lcore calls timer_manage() and we check that all
  *      timers have had their callbacks called exactly once - no more no less.
  *    - Then we repeat the process, except after setting up the timers, we have
  *      all cores randomly reschedule them.
@@ -58,7 +58,7 @@
  *
  *    - timer0
  *
- *      - At initialization, timer0 is loaded by the master core, on master core
+ *      - At initialization, timer0 is loaded by the main core, on main core
  *        in "single" mode (time = 1 second).
  *      - In the first 19 callbacks, timer0 is reloaded on the same core,
  *        then, it is explicitly stopped at the 20th call.
  *
  *    - timer1
  *
- *      - At initialization, timer1 is loaded by the master core, on the
- *        master core in "single" mode (time = 2 seconds).
+ *      - At initialization, timer1 is loaded by the main core, on the
+ *        main core in "single" mode (time = 2 seconds).
  *      - In the first 9 callbacks, timer1 is reloaded on another
  *        core. After the 10th callback, timer1 is not reloaded anymore.
  *
  *    - timer2
  *
- *      - At initialization, timer2 is loaded by the master core, on the
- *        master core in "periodical" mode (time = 1 second).
+ *      - At initialization, timer2 is loaded by the main core, on the
+ *        main core in "periodical" mode (time = 1 second).
  *      - In the callback, when t=25s, it stops timer3 and reloads timer0
  *        on the current core.
  *
  *    - timer3
  *
- *      - At initialization, timer3 is loaded by the master core, on
+ *      - At initialization, timer3 is loaded by the main core, on
  *        another core in "periodical" mode (time = 1 second).
  *      - It is stopped at t=25s by timer2.
  */
@@ -201,68 +201,69 @@ timer_stress_main_loop(__rte_unused void *arg)
        return 0;
 }
 
-/* Need to synchronize slave lcores through multiple steps. */
-enum { SLAVE_WAITING = 1, SLAVE_RUN_SIGNAL, SLAVE_RUNNING, SLAVE_FINISHED };
-static rte_atomic16_t slave_state[RTE_MAX_LCORE];
+/* Need to synchronize worker lcores through multiple steps. */
+enum { WORKER_WAITING = 1, WORKER_RUN_SIGNAL, WORKER_RUNNING, WORKER_FINISHED };
+static rte_atomic16_t lcore_state[RTE_MAX_LCORE];
 
 static void
-master_init_slaves(void)
+main_init_workers(void)
 {
        unsigned i;
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
-               rte_atomic16_set(&slave_state[i], SLAVE_WAITING);
+       RTE_LCORE_FOREACH_WORKER(i) {
+               rte_atomic16_set(&lcore_state[i], WORKER_WAITING);
        }
 }
 
 static void
-master_start_slaves(void)
+main_start_workers(void)
 {
        unsigned i;
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
-               rte_atomic16_set(&slave_state[i], SLAVE_RUN_SIGNAL);
+       RTE_LCORE_FOREACH_WORKER(i) {
+               rte_atomic16_set(&lcore_state[i], WORKER_RUN_SIGNAL);
        }
-       RTE_LCORE_FOREACH_SLAVE(i) {
-               while (rte_atomic16_read(&slave_state[i]) != SLAVE_RUNNING)
+       RTE_LCORE_FOREACH_WORKER(i) {
+               while (rte_atomic16_read(&lcore_state[i]) != WORKER_RUNNING)
                        rte_pause();
        }
 }
 
 static void
-master_wait_for_slaves(void)
+main_wait_for_workers(void)
 {
        unsigned i;
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
-               while (rte_atomic16_read(&slave_state[i]) != SLAVE_FINISHED)
+       RTE_LCORE_FOREACH_WORKER(i) {
+               while (rte_atomic16_read(&lcore_state[i]) != WORKER_FINISHED)
                        rte_pause();
        }
 }
 
 static void
-slave_wait_to_start(void)
+worker_wait_to_start(void)
 {
        unsigned lcore_id = rte_lcore_id();
 
-       while (rte_atomic16_read(&slave_state[lcore_id]) != SLAVE_RUN_SIGNAL)
+       while (rte_atomic16_read(&lcore_state[lcore_id]) != WORKER_RUN_SIGNAL)
                rte_pause();
-       rte_atomic16_set(&slave_state[lcore_id], SLAVE_RUNNING);
+       rte_atomic16_set(&lcore_state[lcore_id], WORKER_RUNNING);
 }
 
 static void
-slave_finish(void)
+worker_finish(void)
 {
        unsigned lcore_id = rte_lcore_id();
 
-       rte_atomic16_set(&slave_state[lcore_id], SLAVE_FINISHED);
+       rte_atomic16_set(&lcore_state[lcore_id], WORKER_FINISHED);
 }
 
 
 static volatile int cb_count = 0;
 
 /* callback for second stress test. will only be called
- * on master lcore */
+ * on main lcore
+ */
 static void
 timer_stress2_cb(struct rte_timer *tim __rte_unused, void *arg __rte_unused)
 {
@@ -277,36 +278,36 @@ timer_stress2_main_loop(__rte_unused void *arg)
        static struct rte_timer *timers;
        int i, ret;
        uint64_t delay = rte_get_timer_hz() / 20;
-       unsigned lcore_id = rte_lcore_id();
-       unsigned master = rte_get_master_lcore();
+       unsigned int lcore_id = rte_lcore_id();
+       unsigned int main_lcore = rte_get_main_lcore();
        int32_t my_collisions = 0;
        static rte_atomic32_t collisions;
 
-       if (lcore_id == master) {
+       if (lcore_id == main_lcore) {
                cb_count = 0;
                test_failed = 0;
                rte_atomic32_set(&collisions, 0);
-               master_init_slaves();
+               main_init_workers();
                timers = rte_malloc(NULL, sizeof(*timers) * NB_STRESS2_TIMERS, 0);
                if (timers == NULL) {
                        printf("Test Failed\n");
                        printf("- Cannot allocate memory for timers\n" );
                        test_failed = 1;
-                       master_start_slaves();
+                       main_start_workers();
                        goto cleanup;
                }
                for (i = 0; i < NB_STRESS2_TIMERS; i++)
                        rte_timer_init(&timers[i]);
-               master_start_slaves();
+               main_start_workers();
        } else {
-               slave_wait_to_start();
+               worker_wait_to_start();
                if (test_failed)
                        goto cleanup;
        }
 
-       /* have all cores schedule all timers on master lcore */
+       /* have all cores schedule all timers on main lcore */
        for (i = 0; i < NB_STRESS2_TIMERS; i++) {
-               ret = rte_timer_reset(&timers[i], delay, SINGLE, master,
+               ret = rte_timer_reset(&timers[i], delay, SINGLE, main_lcore,
                                timer_stress2_cb, NULL);
                /* there will be collisions when multiple cores simultaneously
                 * configure the same timers */
@@ -320,14 +321,14 @@ timer_stress2_main_loop(__rte_unused void *arg)
        rte_delay_ms(100);
 
        /* all cores rendezvous */
-       if (lcore_id == master) {
-               master_wait_for_slaves();
+       if (lcore_id == main_lcore) {
+               main_wait_for_workers();
        } else {
-               slave_finish();
+               worker_finish();
        }
 
        /* now check that we get the right number of callbacks */
-       if (lcore_id == master) {
+       if (lcore_id == main_lcore) {
                my_collisions = rte_atomic32_read(&collisions);
                if (my_collisions != 0)
                        printf("- %d timer reset collisions (OK)\n", my_collisions);
@@ -338,23 +339,23 @@ timer_stress2_main_loop(__rte_unused void *arg)
                        printf("- Expected %d callbacks, got %d\n", NB_STRESS2_TIMERS,
                                        cb_count);
                        test_failed = 1;
-                       master_start_slaves();
+                       main_start_workers();
                        goto cleanup;
                }
                cb_count = 0;
 
                /* proceed */
-               master_start_slaves();
+               main_start_workers();
        } else {
                /* proceed */
-               slave_wait_to_start();
+               worker_wait_to_start();
                if (test_failed)
                        goto cleanup;
        }
 
        /* now test again, just stop and restart timers at random after init*/
        for (i = 0; i < NB_STRESS2_TIMERS; i++)
-               rte_timer_reset(&timers[i], delay, SINGLE, master,
+               rte_timer_reset(&timers[i], delay, SINGLE, main_lcore,
                                timer_stress2_cb, NULL);
 
        /* pick random timer to reset, stopping them first half the time */
@@ -362,7 +363,7 @@ timer_stress2_main_loop(__rte_unused void *arg)
                int r = rand() % NB_STRESS2_TIMERS;
                if (i % 2)
                        rte_timer_stop(&timers[r]);
-               rte_timer_reset(&timers[r], delay, SINGLE, master,
+               rte_timer_reset(&timers[r], delay, SINGLE, main_lcore,
                                timer_stress2_cb, NULL);
        }
 
@@ -370,8 +371,8 @@ timer_stress2_main_loop(__rte_unused void *arg)
        rte_delay_ms(100);
 
        /* now check that we get the right number of callbacks */
-       if (lcore_id == master) {
-               master_wait_for_slaves();
+       if (lcore_id == main_lcore) {
+               main_wait_for_workers();
 
                rte_timer_manage();
                if (cb_count != NB_STRESS2_TIMERS) {
@@ -386,14 +387,14 @@ timer_stress2_main_loop(__rte_unused void *arg)
        }
 
 cleanup:
-       if (lcore_id == master) {
-               master_wait_for_slaves();
+       if (lcore_id == main_lcore) {
+               main_wait_for_workers();
                if (timers != NULL) {
                        rte_free(timers);
                        timers = NULL;
                }
        } else {
-               slave_finish();
+               worker_finish();
        }
 
        return 0;
@@ -465,7 +466,7 @@ timer_basic_main_loop(__rte_unused void *arg)
        int64_t diff = 0;
 
        /* launch all timers on core 0 */
-       if (lcore_id == rte_get_master_lcore()) {
+       if (lcore_id == rte_get_main_lcore()) {
                mytimer_reset(&mytiminfo[0], hz/4, SINGLE, lcore_id,
                              timer_basic_cb);
                mytimer_reset(&mytiminfo[1], hz/2, SINGLE, lcore_id,
@@ -563,7 +564,7 @@ test_timer(void)
 
        /* start other cores */
        printf("Start timer stress tests\n");
-       rte_eal_mp_remote_launch(timer_stress_main_loop, NULL, CALL_MASTER);
+       rte_eal_mp_remote_launch(timer_stress_main_loop, NULL, CALL_MAIN);
        rte_eal_mp_wait_lcore();
 
        /* stop timer 0 used for stress test */
@@ -572,7 +573,7 @@ test_timer(void)
        /* run a second, slightly different set of stress tests */
        printf("\nStart timer stress tests 2\n");
        test_failed = 0;
-       rte_eal_mp_remote_launch(timer_stress2_main_loop, NULL, CALL_MASTER);
+       rte_eal_mp_remote_launch(timer_stress2_main_loop, NULL, CALL_MAIN);
        rte_eal_mp_wait_lcore();
        if (test_failed)
                return TEST_FAILED;
@@ -584,7 +585,7 @@ test_timer(void)
 
        /* start other cores */
        printf("\nStart timer basic tests\n");
-       rte_eal_mp_remote_launch(timer_basic_main_loop, NULL, CALL_MASTER);
+       rte_eal_mp_remote_launch(timer_basic_main_loop, NULL, CALL_MAIN);
        rte_eal_mp_wait_lcore();
 
        /* stop all timers */
index 28af9ca..133d332 100644 (file)
 #define N_TIMERS    50
 
 static struct rte_timer timer[N_TIMERS];
-static unsigned timer_lcore_id[N_TIMERS];
+static unsigned int timer_lcore_id[N_TIMERS];
 
-static unsigned master;
-static volatile unsigned stop_slaves;
+static unsigned int main_lcore;
+static volatile unsigned int stop_workers;
 
 static int reload_timer(struct rte_timer *tim);
 
@@ -90,7 +90,7 @@ reload_timer(struct rte_timer *tim)
            (tim - timer);
        int ret;
 
-       ret = rte_timer_reset(tim, ticks, PERIODICAL, master, timer_cb, NULL);
+       ret = rte_timer_reset(tim, ticks, PERIODICAL, main_lcore, timer_cb, NULL);
        if (ret != 0) {
                rte_log(RTE_LOG_DEBUG, timer_logtype_test,
                        "- core %u failed to reset timer %" PRIuPTR " (OK)\n",
@@ -101,7 +101,7 @@ reload_timer(struct rte_timer *tim)
 }
 
 static int
-slave_main_loop(__rte_unused void *arg)
+worker_main_loop(__rte_unused void *arg)
 {
        unsigned lcore_id = rte_lcore_id();
        unsigned i;
@@ -110,7 +110,7 @@ slave_main_loop(__rte_unused void *arg)
 
        printf("Starting main loop on core %u\n", lcore_id);
 
-       while (!stop_slaves) {
+       while (!stop_workers) {
                /* Wait until the timer manager is running.
                 * We know it's running when we see timer[0] NOT pending.
                 */
@@ -147,7 +147,7 @@ test_timer_racecond(void)
        unsigned lcore_id;
        unsigned i;
 
-       master = lcore_id = rte_lcore_id();
+       main_lcore = lcore_id = rte_lcore_id();
        hz = rte_get_timer_hz();
 
        /* init and start timers */
@@ -156,8 +156,8 @@ test_timer_racecond(void)
                ret = reload_timer(&timer[i]);
                TEST_ASSERT(ret == 0, "reload_timer failed");
 
-               /* Distribute timers to slaves.
-                * Note that we assign timer[0] to the master.
+               /* Distribute timers to workers.
+                * Note that we assign timer[0] to the main.
                 */
                timer_lcore_id[i] = lcore_id;
                lcore_id = rte_get_next_lcore(lcore_id, 1, 1);
@@ -167,11 +167,11 @@ test_timer_racecond(void)
        cur_time = rte_get_timer_cycles();
        end_time = cur_time + (hz * TEST_DURATION_S);
 
-       /* start slave cores */
-       stop_slaves = 0;
+       /* start worker cores */
+       stop_workers = 0;
        printf("Start timer manage race condition test (%u seconds)\n",
                        TEST_DURATION_S);
-       rte_eal_mp_remote_launch(slave_main_loop, NULL, SKIP_MASTER);
+       rte_eal_mp_remote_launch(worker_main_loop, NULL, SKIP_MAIN);
 
        while (diff >= 0) {
                /* run the timers */
@@ -184,9 +184,9 @@ test_timer_racecond(void)
                diff = end_time - cur_time;
        }
 
-       /* stop slave cores */
+       /* stop worker cores */
        printf("Stopping timer manage race condition test\n");
-       stop_slaves = 1;
+       stop_workers = 1;
        rte_eal_mp_wait_lcore();
 
        /* stop timers */
index 7a3bc87..1e8f1d4 100644 (file)
@@ -26,7 +26,7 @@
 #define launch_proc(ARGV) process_dup(ARGV, RTE_DIM(ARGV), __func__)
 
 struct test_info {
-       unsigned int mstr_lcore;
+       unsigned int main_lcore;
        unsigned int mgr_lcore;
        unsigned int sec_lcore;
        uint32_t timer_data_id;
@@ -137,12 +137,12 @@ test_timer_secondary(void)
                TEST_ASSERT_SUCCESS(ret, "Failed to allocate timer data "
                                    "instance");
 
-               unsigned int *mstr_lcorep = &test_info->mstr_lcore;
+               unsigned int *main_lcorep = &test_info->main_lcore;
                unsigned int *mgr_lcorep = &test_info->mgr_lcore;
                unsigned int *sec_lcorep = &test_info->sec_lcore;
 
-               *mstr_lcorep = rte_get_master_lcore();
-               *mgr_lcorep = rte_get_next_lcore(*mstr_lcorep, 1, 1);
+               *main_lcorep = rte_get_main_lcore();
+               *mgr_lcorep = rte_get_next_lcore(*main_lcorep, 1, 1);
                *sec_lcorep = rte_get_next_lcore(*mgr_lcorep, 1, 1);
 
                ret = rte_eal_remote_launch(timer_manage_loop,
index 50c7381..e1ad8e6 100644 (file)
@@ -132,7 +132,7 @@ run_test(const char *str, lcore_function_t f, struct test_data *data, size_t sz)
 
        memset(data, 0, sz);
        data->nb_workers = rte_lcore_count() - 1;
-       RTE_LCORE_FOREACH_SLAVE(id)
+       RTE_LCORE_FOREACH_WORKER(id)
                rte_eal_remote_launch(f, &data->ldata[worker++], id);
 
        wait_till_workers_are_ready(data);
@@ -140,7 +140,7 @@ run_test(const char *str, lcore_function_t f, struct test_data *data, size_t sz)
        measure_perf(str, data);
        signal_workers_to_finish(data);
 
-       RTE_LCORE_FOREACH_SLAVE(id)
+       RTE_LCORE_FOREACH_WORKER(id)
                rte_eal_wait_lcore(id);
 }
 
index dfc211f..687c502 100644 (file)
@@ -362,7 +362,7 @@ For example:
        typedef int (lcore_function_t)(void *);
 
        /* launch a function of lcore_function_t type */
-       int rte_eal_remote_launch(lcore_function_t *f, void *arg, unsigned slave_id);
+       int rte_eal_remote_launch(lcore_function_t *f, void *arg, unsigned worker_id);
 
 
 C Indentation
index bb1df7d..ee8c169 100644 (file)
@@ -42,13 +42,13 @@ I am running a 32-bit DPDK application on a NUMA system, and sometimes the appli
 If your system has a lot (>1 GB size) of hugepage memory, not all of it will be allocated.
 Due to hugepages typically being allocated on a local NUMA node, the hugepages allocation the application gets during the initialization depends on which
 NUMA node it is running on (the EAL does not affinitize cores until much later in the initialization process).
-Sometimes, the Linux OS runs the DPDK application on a core that is located on a different NUMA node from DPDK master core and
+Sometimes, the Linux OS runs the DPDK application on a core that is located on a different NUMA node from DPDK main core and
 therefore all the hugepages are allocated on the wrong socket.
 
 To avoid this scenario, either lower the amount of hugepage memory available to 1 GB size (or less), or run the application with taskset
-affinitizing the application to a would-be master core.
+affinitizing the application to a would-be main core.
 
-For example, if your EAL coremask is 0xff0, the master core will usually be the first core in the coremask (0x10); this is what you have to supply to taskset::
+For example, if your EAL coremask is 0xff0, the main core will usually be the first core in the coremask (0x10); this is what you have to supply to taskset::
 
    taskset 0x10 ./l2fwd -l 4-11 -n 2
 
index 50bd32a..457ac44 100644 (file)
@@ -312,7 +312,7 @@ Custom worker function :numref:`dtg_distributor_worker`.
      cores.
 
    * For high-performance execution logic ensure running it on correct NUMA
-     and non-master core.
+     and worker core.
 
    * Analyze run logic with ``rte_dump_stack`` and
      ``rte_memdump`` for more insights.
index a0bfbd1..01afa1b 100644 (file)
@@ -33,9 +33,9 @@ Lcore-related options
     At a given instance only one core option ``--lcores``, ``-l`` or ``-c`` can
     be used.
 
-*   ``--master-lcore <core ID>``
+*   ``--main-lcore <core ID>``
 
-    Core ID that is used as master.
+    Core ID that is used as main.
 
 *   ``-s <service core mask>``
 
index d7b04ae..181ec00 100644 (file)
@@ -232,7 +232,7 @@ The following selection demonstrates the launch of the test application to run o
     EAL: coremask set to 1
     EAL: Detected lcore 0 on socket 0
     ...
-    EAL: Master core 0 is ready (tid=1b2ad720)
+    EAL: Main core 0 is ready (tid=1b2ad720)
     RTE>>
 
 Applications
@@ -294,7 +294,7 @@ the logical core layout of the platform should be determined when selecting a co
     EAL: Virtual area found at 0x7f0a5c000000 (size = 0x200000)
     EAL: Requesting 1024 pages of size 2MB from socket 0
     EAL: Requesting 1024 pages of size 2MB from socket 1
-    EAL: Master core 0 is ready (tid=de25b700)
+    EAL: Main core 0 is ready (tid=de25b700)
     EAL: Core 1 is ready (tid=5b7fe700)
     EAL: Core 3 is ready (tid=5a7fc700)
     EAL: Core 2 is ready (tid=5affd700)
index 74d90ba..28973fc 100644 (file)
@@ -385,7 +385,7 @@ The application enables multiple TX and RX queues when it is started.
 
 .. code-block:: console
 
- Â   testpmd -l 1,3,5 --master-lcore 1 --txq=2 â€“rxq=2 --nb-cores=2
+ Â   testpmd -l 1,3,5 --main-lcore 1 --txq=2 â€“rxq=2 --nb-cores=2
 
 **TSS**
 
index fafed83..a470fd7 100644 (file)
@@ -64,7 +64,7 @@ It consist of calls to the pthread library (more specifically, pthread_self(), p
 .. note::
 
     Initialization of objects, such as memory zones, rings, memory pools, lpm tables and hash tables,
-    should be done as part of the overall application initialization on the master lcore.
+    should be done as part of the overall application initialization on the main lcore.
     The creation and initialization functions for these objects are not multi-thread safe.
     However, once initialized, the objects themselves can safely be used in multiple threads simultaneously.
 
@@ -186,7 +186,7 @@ very dependent on the memory allocation patterns of the application.
 
 Additional restrictions are present when running in 32-bit mode. In dynamic
 memory mode, by default maximum of 2 gigabytes of VA space will be preallocated,
-and all of it will be on master lcore NUMA node unless ``--socket-mem`` flag is
+and all of it will be on main lcore NUMA node unless ``--socket-mem`` flag is
 used.
 
 In legacy mode, VA space will only be preallocated for segments that were
@@ -641,7 +641,7 @@ controlled with tools like taskset (Linux) or cpuset (FreeBSD),
 - with affinity restricted to 2-4, the Control Threads will end up on
   CPU 4.
 - with affinity restricted to 2-3, the Control Threads will end up on
-  CPU 2 (master lcore, which is the default when no CPU is available).
+  CPU 2 (main lcore, which is the default when no CPU is available).
 
 .. _known_issue_label:
 
index c7dda92..236f43f 100644 (file)
@@ -172,7 +172,7 @@ converts the received packets to events in the same manner as packets
 received on a polled Rx queue. The interrupt thread is affinitized to the same
 CPUs as the lcores of the Rx adapter service function, if the Rx adapter
 service function has not been mapped to any lcores, the interrupt thread
-is mapped to the master lcore.
+is mapped to the main lcore.
 
 Rx Callback for SW Rx Adapter
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
index 21063a4..7044a7d 100644 (file)
@@ -124,10 +124,13 @@ LAN
 LPM
    Longest Prefix Match
 
-master lcore
+main lcore
    The execution unit that executes the main() function and that launches
    other lcores.
 
+master lcore
+   Deprecated name for *main lcore*. No longer used.
+
 mbuf
    An mbuf is a data structure used internally to carry messages (mainly
    network packets).  The name is derived from BSD stacks.  To understand the
@@ -185,7 +188,7 @@ Rx
    Reception
 
 Slave lcore
-   Any *lcore* that is not the *master lcore*.
+   Deprecated name for *worker lcore*. No longer used.
 
 Socket
    A physical CPU, that includes several *cores*.
@@ -237,6 +240,9 @@ VLAN
 Wr
    Write
 
+Worker lcore
+   Any *lcore* that is not the *main lcore*.
+
 WRED
    Weighted Random Early Detection
 
index 835ed77..c16b7b1 100644 (file)
          sodipodi:role="line"
          id="tspan3165"
          x="114.71806"
-         y="46.6479">Master lcore</tspan></text>
+         y="46.6479">main lcore</tspan></text>
     <text
        xml:space="preserve"
        style="font-size:20px;font-style:normal;font-weight:normal;fill:#000000;fill-opacity:1;stroke:none;font-family:Bitstream Vera Sans"
index 76a8396..2e08249 100644 (file)
@@ -28,25 +28,6 @@ Deprecation Notices
 * kvargs: The function ``rte_kvargs_process`` will get a new parameter
   for returning key match count. It will ease handling of no-match case.
 
-* eal: To be more inclusive in choice of naming, the DPDK project
-  will replace uses of master/slave in the API's and command line arguments.
-
-  References to master/slave in relation to lcore will be renamed
-  to initial/worker.  The function ``rte_get_master_lcore()``
-  will be renamed to ``rte_get_initial_lcore()``.
-  For the 20.11 release, both names will be present and the
-  old function will be marked with the deprecated tag.
-  The old function will be removed in a future version.
-
-  The iterator for worker lcores will also change:
-  ``RTE_LCORE_FOREACH_SLAVE`` will be replaced with
-  ``RTE_LCORE_FOREACH_WORKER``.
-
-  The ``master-lcore`` argument to testpmd will be replaced
-  with ``initial-lcore``. The old ``master-lcore`` argument
-  will produce a runtime notification in 20.11 release, and
-  be removed completely in a future release.
-
 * eal: The terms blacklist and whitelist to describe devices used
   by DPDK will be replaced in the 20.11 relase.
   This will apply to command line arguments as well as macros.
index 278d8dd..0d45b50 100644 (file)
@@ -384,6 +384,13 @@ API Changes
   The information provided by these macros is available through standard
   compiler macros.
 
+* eal: Replaced the function ``rte_get_master_lcore()`` to
+  ``rte_get_main_lcore()``. The old function is deprecated.
+
+  The iterator for worker lcores is also changed:
+  ``RTE_LCORE_FOREACH_SLAVE`` is replaced with
+  ``RTE_LCORE_FOREACH_WORKER``.
+
 * eal: The ``rte_logs`` struct and global symbol was made private
   and is no longer part of the API.
 
index 405e706..54ff657 100644 (file)
@@ -94,7 +94,7 @@ device gets linked to a corresponding ethernet port as whitelisted by
 the parameter -w.
 3 cores are allocated to the application, and assigned as:
 
- - core 3 is the master and used to print the stats live on screen,
+ - core 3 is the main and used to print the stats live on screen,
 
  - core 4 is the encoding lcore performing Rx and Turbo Encode operations
 
index 253004d..23258d7 100644 (file)
@@ -64,8 +64,8 @@ Explanation
 -----------
 
 The sample program has two parts: A background `packet reflector`_
-that runs on a slave core, and a foreground `Ethtool Shell`_ that
-runs on the master core. These are described below.
+that runs on a worker core, and a foreground `Ethtool Shell`_ that
+runs on the main core. These are described below.
 
 Packet Reflector
 ~~~~~~~~~~~~~~~~
index 46f997a..4d5e41c 100644 (file)
@@ -1,4 +1,4 @@
-..  SPDX-License-Identifier: BSD-3-Clause
+o..  SPDX-License-Identifier: BSD-3-Clause
     Copyright(c) 2010-2014 Intel Corporation.
 
 Hello World Sample Application
@@ -75,13 +75,13 @@ The code that launches the function on each lcore is as follows:
 
 .. code-block:: c
 
-    /* call lcore_hello() on every slave lcore */
+    /* call lcore_hello() on every worker lcore */
 
-    RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+    RTE_LCORE_FOREACH_WORKER(lcore_id) {
        rte_eal_remote_launch(lcore_hello, NULL, lcore_id);
     }
 
-    /* call it on master lcore too */
+    /* call it on main lcore too */
 
     lcore_hello(NULL);
 
@@ -89,6 +89,6 @@ The following code is equivalent and simpler:
 
 .. code-block:: c
 
-    rte_eal_mp_remote_launch(lcore_hello, NULL, CALL_MASTER);
+    rte_eal_mp_remote_launch(lcore_hello, NULL, CALL_MAIN);
 
 Refer to the *DPDK API Reference* for detailed information on the rte_eal_mp_remote_launch() function.
index 964160d..e5381a4 100644 (file)
@@ -69,13 +69,13 @@ provided parameters. The app can use up to 2 lcores: one of them receives
 incoming traffic and makes a copy of each packet. The second lcore then
 updates MAC address and sends the copy. If one lcore per port is used,
 both operations are done sequentially. For each configuration an additional
-lcore is needed since the master lcore does not handle traffic but is
+lcore is needed since the main lcore does not handle traffic but is
 responsible for configuration, statistics printing and safe shutdown of
 all ports and devices.
 
 The application can use a maximum of 8 ports.
 
-To run the application in a Linux environment with 3 lcores (the master lcore,
+To run the application in a Linux environment with 3 lcores (the main lcore,
 plus two forwarding cores), a single port (port 0), software copying and MAC
 updating issue the command:
 
@@ -83,7 +83,7 @@ updating issue the command:
 
     $ ./build/ioatfwd -l 0-2 -n 2 -- -p 0x1 --mac-updating -c sw
 
-To run the application in a Linux environment with 2 lcores (the master lcore,
+To run the application in a Linux environment with 2 lcores (the main lcore,
 plus one forwarding core), 2 ports (ports 0 and 1), hardware copying and no MAC
 updating issue the command:
 
@@ -208,7 +208,7 @@ After that each port application assigns resources needed.
     cfg.nb_lcores = rte_lcore_count() - 1;
     if (cfg.nb_lcores < 1)
         rte_exit(EXIT_FAILURE,
-            "There should be at least one slave lcore.\n");
+            "There should be at least one worker lcore.\n");
 
     ret = 0;
 
@@ -310,9 +310,9 @@ If initialization is successful, memory for hardware device
 statistics is allocated.
 
 Finally ``main()`` function starts all packet handling lcores and starts
-printing stats in a loop on the master lcore. The application can be
-interrupted and closed using ``Ctrl-C``. The master lcore waits for
-all slave processes to finish, deallocates resources and exits.
+printing stats in a loop on the main lcore. The application can be
+interrupted and closed using ``Ctrl-C``. The main lcore waits for
+all worker lcores to finish, deallocates resources and exits.
 
 The processing lcores launching function are described below.
 
index 56014be..7e3643c 100644 (file)
@@ -122,7 +122,7 @@ is displayed and the application is terminated.
 Run-time
 ~~~~~~~~
 
-The master thread is creating and managing all the application objects based on CLI input.
+The main thread is creating and managing all the application objects based on CLI input.
 
 Each data plane thread runs one or several pipelines previously assigned to it in round-robin order. Each data plane thread
 executes two tasks in time-sharing mode:
@@ -130,7 +130,7 @@ executes two tasks in time-sharing mode:
 1. *Packet processing task*: Process bursts of input packets read from the pipeline input ports.
 
 2. *Message handling task*: Periodically, the data plane thread pauses the packet processing task and polls for request
-   messages send by the master thread. Examples: add/remove pipeline to/from current data plane thread, add/delete rules
+   messages send by the main thread. Examples: add/remove pipeline to/from current data plane thread, add/delete rules
    to/from given table of a specific pipeline owned by the current data plane thread, read statistics, etc.
 
 Examples
index 865ba69..6e5716a 100644 (file)
@@ -16,7 +16,7 @@ Overview
 --------
 
 The application demonstrates how to protect against 'silent outages'
-on packet processing cores. A Keep Alive Monitor Agent Core (master)
+on packet processing cores. A Keep Alive Monitor Agent Core (main)
 monitors the state of packet processing cores (worker cores) by
 dispatching pings at a regular time interval (default is 5ms) and
 monitoring the state of the cores. Cores states are: Alive, MIA, Dead
index d536eee..34c53a3 100644 (file)
@@ -630,8 +630,8 @@ not many packets to send, however it improves performance:
 
                         /* if timer has reached its timeout */
                         if (unlikely(timer_tsc >= timer_period)) {
-                                /* do this only on master core */
-                                if (lcore_id == rte_get_master_lcore()) {
+                                /* do this only on main core */
+                                if (lcore_id == rte_get_main_lcore()) {
                                         print_stats();
                                         /* reset the timer */
                                         timer_tsc = 0;
index c0e8488..f3be6cf 100644 (file)
@@ -453,9 +453,8 @@ however it improves performance:
             /* if timer has reached its timeout */
 
             if (unlikely(timer_tsc >= (uint64_t) timer_period)) {
-                /* do this only on master core */
-
-                if (lcore_id == rte_get_master_lcore()) {
+                /* do this only on main core */
+                if (lcore_id == rte_get_main_lcore()) {
                     print_stats();
 
                     /* reset the timer */
index df50827..4ac96fc 100644 (file)
@@ -22,7 +22,7 @@ Run-time path is main thing that differs from L3 forwarding sample application.
 Difference is that forwarding logic starting from Rx, followed by LPM lookup,
 TTL update and finally Tx is implemented inside graph nodes. These nodes are
 interconnected in graph framework. Application main loop needs to walk over
-graph using ``rte_graph_walk()`` with graph objects created one per slave lcore.
+graph using ``rte_graph_walk()`` with graph objects created one per worker lcore.
 
 The lookup method is as per implementation of ``ip4_lookup`` graph node.
 The ID of the output interface for the input packet is the next hop returned by
@@ -265,7 +265,7 @@ headers will be provided run-time using ``rte_node_ip4_route_add()`` and
     Since currently ``ip4_lookup`` and ``ip4_rewrite`` nodes don't support
     lock-less mechanisms(RCU, etc) to add run-time forwarding data like route and
     rewrite data, forwarding data is added before packet processing loop is
-    launched on slave lcore.
+    launched on worker lcore.
 
 .. code-block:: c
 
@@ -297,7 +297,7 @@ Packet Forwarding using Graph Walk
 ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
 
 Now that all the device configurations are done, graph creations are done and
-forwarding data is updated with nodes, slave lcores will be launched with graph
+forwarding data is updated with nodes, worker lcores will be launched with graph
 main loop. Graph main loop is very simple in the sense that it needs to
 continuously call a non-blocking API ``rte_graph_walk()`` with it's lcore
 specific graph object that was already created.
index 0cc6f2e..f05816d 100644 (file)
@@ -441,7 +441,7 @@ The telemetry mode support for ``l3fwd-power`` is a standalone mode, in this mod
 ``l3fwd-power`` does simple l3fwding along with calculating empty polls, full polls,
 and busy percentage for each forwarding core. The aggregation of these
 values of all cores is reported as application level telemetry to metric
-library for every 500ms from the master core.
+library for every 500ms from the main core.
 
 The busy percentage is calculated by recording the poll_count
 and when the count reaches a defined value the total
index 1057c75..e4b1a5e 100644 (file)
@@ -401,9 +401,8 @@ However, it improves performance:
             /* if timer has reached its timeout */
 
             if (unlikely(timer_tsc >= (uint64_t) timer_period)) {
-                /* do this only on master core */
-
-                if (lcore_id == rte_get_master_lcore()) {
+                /* do this only on main core */
+                if (lcore_id == rte_get_main_lcore()) {
                     print_stats();
 
                     /* reset the timer */
index bd329c2..092791d 100644 (file)
@@ -64,7 +64,8 @@ The process should start successfully and display a command prompt as follows:
     EAL: Virtual area found at 0x7ff200000000 (size = 0x40000000)
     ...
 
-    EAL: Master core 0 is ready (tid=54e41820)
+    EAL: check module finished
+    EAL: Main core 0 is ready (tid=54e41820)
     EAL: Core 1 is ready (tid=53b32700)
 
     Starting core 1
@@ -90,7 +91,7 @@ At any stage, either process can be terminated using the quit command.
 
 .. code-block:: console
 
-   EAL: Master core 10 is ready (tid=b5f89820)           EAL: Master core 8 is ready (tid=864a3820)
+   EAL: Main core 10 is ready (tid=b5f89820)             EAL: Main core 8 is ready (tid=864a3820)
    EAL: Core 11 is ready (tid=84ffe700)                  EAL: Core 9 is ready (tid=85995700)
    Starting core 11                                      Starting core 9
    simple_mp > send hello_secondary                      simple_mp > core 9: Received 'hello_secondary'
@@ -271,7 +272,7 @@ In addition to the EAL parameters, the application- specific parameters are:
 
 .. note::
 
-    In the server process, a single thread, the master thread, that is, the lowest numbered lcore in the coremask/corelist, performs all packet I/O.
+    In the server process, a single thread, the main thread, that is, the lowest numbered lcore in the coremask/corelist, performs all packet I/O.
     If a coremask/corelist is specified with more than a single lcore bit set in it,
     an additional lcore will be used for a thread to periodically print packet count statistics.
 
index 1c8ee5d..e3e8443 100644 (file)
@@ -12,14 +12,14 @@ Overview
 
 The application uses at least three CPU cores:
 
-* RX core (maser core) receives traffic from the NIC ports and feeds Worker
+* RX core (main core) receives traffic from the NIC ports and feeds Worker
   cores with traffic through SW queues.
 
-* Worker core (slave core) basically do some light work on the packet.
+* Worker (worker core) basically do some light work on the packet.
   Currently it modifies the output port of the packet for configurations with
   more than one port enabled.
 
-* TX Core (slave core) receives traffic from Worker cores through software queues,
+* TX Core (worker core) receives traffic from Worker cores through software queues,
   inserts out-of-order packets into reorder buffer, extracts ordered packets
   from the reorder buffer and sends them to the NIC ports for transmission.
 
@@ -46,7 +46,7 @@ The application execution command line is:
     ./packet_ordering [EAL options] -- -p PORTMASK [--disable-reorder] [--insight-worker]
 
 The -c EAL CPU_COREMASK option has to contain at least 3 CPU cores.
-The first CPU core in the core mask is the master core and would be assigned to
+The first CPU core in the core mask is the main core and would be assigned to
 RX core, the last to TX core and the rest to Worker cores.
 
 The PORTMASK parameter must contain either 1 or even enabled port numbers.
index b04d0ba..d0d9419 100644 (file)
@@ -280,8 +280,8 @@ functionality into different threads, and the pairs of RX and TX threads are
 interconnected via software rings.
 
 On initialization an L-thread scheduler is started on every EAL thread. On all
-but the master EAL thread only a dummy L-thread is initially started.
-The L-thread started on the master EAL thread then spawns other L-threads on
+but the main EAL thread only a dummy L-thread is initially started.
+The L-thread started on the main EAL thread then spawns other L-threads on
 different L-thread schedulers according the command line parameters.
 
 The RX threads poll the network interface queues and post received packets
@@ -1217,5 +1217,5 @@ Setting ``LTHREAD_DIAG`` also enables counting of statistics about cache and
 queue usage, and these statistics can be displayed by calling the function
 ``lthread_diag_stats_display()``. This function also performs a consistency
 check on the caches and queues. The function should only be called from the
-master EAL thread after all slave threads have stopped and returned to the C
+main EAL thread after all worker threads have stopped and returned to the C
 main program, otherwise the consistency check will fail.
index 12b4f13..5b51c85 100644 (file)
@@ -21,7 +21,7 @@ The PTP sample application is intended as a simple reference implementation of
 a PTP client using the DPDK IEEE1588 API.
 In order to keep the application simple the following assumptions are made:
 
-* The first discovered master is the master for the session.
+* The first discovered master is the main for the session.
 * Only L2 PTP packets are supported.
 * Only the PTP v2 protocol is supported.
 * Only the slave clock is implemented.
index b501065..9229316 100644 (file)
@@ -71,7 +71,7 @@ Optional application parameters include:
     In this mode, the application shows a command line that can be used for obtaining statistics while
     scheduling is taking place (see interactive mode below for more information).
 
-*   --mst n: Master core index (the default value is 1).
+*   --mnc n: Main core index (the default value is 1).
 
 *   --rsz "A, B, C": Ring sizes:
 
@@ -329,7 +329,7 @@ Another example with 2 packet flow configurations using different ports but shar
 Note that independent cores for the packet flow configurations for each of the RX, WT and TX thread are also supported,
 providing flexibility to balance the work.
 
-The EAL coremask/corelist is constrained to contain the default mastercore 1 and the RX, WT and TX cores only.
+The EAL coremask/corelist is constrained to contain the default main core 1 and the RX, WT and TX cores only.
 
 Explanation
 -----------
index 98d762d..c572db5 100644 (file)
@@ -48,18 +48,18 @@ In addition to EAL initialization, the timer subsystem must be initialized, by c
 
     rte_timer_subsystem_init();
 
-After timer creation (see the next paragraph),
-the main loop is executed on each slave lcore using the well-known rte_eal_remote_launch() and also on the master.
+After timer creation (see the next paragraph), the main loop is
+executed on each worker lcore using the well-known
+rte_eal_remote_launch() and also on the main.
 
 .. code-block:: c
 
-    /* call lcore_mainloop() on every slave lcore  */
-
-    RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+    /* call lcore_mainloop() on every worker lcore  */
+    RTE_LCORE_FOREACH_WORKER(lcore_id) {
         rte_eal_remote_launch(lcore_mainloop, NULL, lcore_id);
     }
 
-    /* call it on master lcore too */
+    /* call it on main lcore too */
 
     (void) lcore_mainloop(NULL);
 
@@ -105,7 +105,7 @@ This call to rte_timer_init() is necessary before doing any other operation on t
 
 Then, the two timers are configured:
 
-*   The first timer (timer0) is loaded on the master lcore and expires every second.
+*   The first timer (timer0) is loaded on the main lcore and expires every second.
     Since the PERIODICAL flag is provided, the timer is reloaded automatically by the timer subsystem.
     The callback function is timer0_cb().
 
@@ -115,7 +115,7 @@ Then, the two timers are configured:
 
 .. code-block:: c
 
-    /* load timer0, every second, on master lcore, reloaded automatically */
+    /* load timer0, every second, on main lcore, reloaded automatically */
 
     hz = rte_get_hpet_hz();
 
index 95348ef..4e5929e 100644 (file)
@@ -71,7 +71,7 @@ The command line options are:
 *   ``--coremask=0xXX``
 
     Set the hexadecimal bitmask of the cores running the packet forwarding test.
-    The master lcore is reserved for command line parsing only and cannot be masked on for packet forwarding.
+    The main lcore is reserved for command line parsing only and cannot be masked on for packet forwarding.
 
 *   ``--portmask=0xXX``
 
index a4c07c9..3db332d 100644 (file)
@@ -724,7 +724,7 @@ This is equivalent to the ``--coremask`` command-line option.
 
 .. note::
 
-   The master lcore is reserved for command line parsing only and cannot be masked on for packet forwarding.
+   The main lcore is reserved for command line parsing only and cannot be masked on for packet forwarding.
 
 set portmask
 ~~~~~~~~~~~~
index 32e872d..c94c721 100644 (file)
@@ -257,7 +257,7 @@ int rte_dpaa_portal_init(void *arg)
        BUS_INIT_FUNC_TRACE();
 
        if ((size_t)arg == 1 || lcore == LCORE_ID_ANY)
-               lcore = rte_get_master_lcore();
+               lcore = rte_get_main_lcore();
        else
                if (lcore >= RTE_MAX_LCORE)
                        return -1;
index ba4f4bd..b1f3891 100644 (file)
@@ -501,8 +501,8 @@ wait_workers_to_join(int lcore, const rte_atomic32_t *count)
 
 
 static int
-launch_workers_and_wait(int (*master_worker)(void *),
-                       int (*slave_workers)(void *), uint32_t total_events,
+launch_workers_and_wait(int (*main_worker)(void *),
+                       int (*workers)(void *), uint32_t total_events,
                        uint8_t nb_workers, uint8_t sched_type)
 {
        uint8_t port = 0;
@@ -537,9 +537,9 @@ launch_workers_and_wait(int (*master_worker)(void *),
 
        w_lcore = rte_get_next_lcore(
                        /* start core */ -1,
-                       /* skip master */ 1,
+                       /* skip main */ 1,
                        /* wrap */ 0);
-       rte_eal_remote_launch(master_worker, &param[0], w_lcore);
+       rte_eal_remote_launch(main_worker, &param[0], w_lcore);
 
        for (port = 1; port < nb_workers; port++) {
                param[port].total_events = &atomic_total_events;
@@ -548,7 +548,7 @@ launch_workers_and_wait(int (*master_worker)(void *),
                param[port].dequeue_tmo_ticks = dequeue_tmo_ticks;
                rte_smp_wmb();
                w_lcore = rte_get_next_lcore(w_lcore, 1, 0);
-               rte_eal_remote_launch(slave_workers, &param[port], w_lcore);
+               rte_eal_remote_launch(workers, &param[port], w_lcore);
        }
 
        ret = wait_workers_to_join(w_lcore, &atomic_total_events);
index 239362f..7a2b7de 100644 (file)
@@ -601,8 +601,8 @@ wait_workers_to_join(int lcore, const rte_atomic32_t *count)
 
 
 static inline int
-launch_workers_and_wait(int (*master_worker)(void *),
-                       int (*slave_workers)(void *), uint32_t total_events,
+launch_workers_and_wait(int (*main_worker)(void *),
+                       int (*worker)(void *), uint32_t total_events,
                        uint8_t nb_workers, uint8_t sched_type)
 {
        uint8_t port = 0;
@@ -637,9 +637,9 @@ launch_workers_and_wait(int (*master_worker)(void *),
 
        w_lcore = rte_get_next_lcore(
                        /* start core */ -1,
-                       /* skip master */ 1,
+                       /* skip main */ 1,
                        /* wrap */ 0);
-       rte_eal_remote_launch(master_worker, &param[0], w_lcore);
+       rte_eal_remote_launch(main_worker, &param[0], w_lcore);
 
        for (port = 1; port < nb_workers; port++) {
                param[port].total_events = &atomic_total_events;
@@ -648,7 +648,7 @@ launch_workers_and_wait(int (*master_worker)(void *),
                param[port].dequeue_tmo_ticks = dequeue_tmo_ticks;
                rte_smp_wmb();
                w_lcore = rte_get_next_lcore(w_lcore, 1, 0);
-               rte_eal_remote_launch(slave_workers, &param[port], w_lcore);
+               rte_eal_remote_launch(worker, &param[port], w_lcore);
        }
 
        ret = wait_workers_to_join(w_lcore, &atomic_total_events);
index 8440a50..334a9cc 100644 (file)
@@ -586,8 +586,8 @@ wait_workers_to_join(const rte_atomic32_t *count)
 }
 
 static inline int
-launch_workers_and_wait(int (*master_worker)(void *),
-                       int (*slave_workers)(void *), uint32_t total_events,
+launch_workers_and_wait(int (*main_thread)(void *),
+                       int (*worker_thread)(void *), uint32_t total_events,
                        uint8_t nb_workers, uint8_t sched_type)
 {
        rte_atomic32_t atomic_total_events;
@@ -623,9 +623,9 @@ launch_workers_and_wait(int (*master_worker)(void *),
 
        w_lcore = rte_get_next_lcore(
                        /* start core */ -1,
-                       /* skip master */ 1,
+                       /* skip main */ 1,
                        /* wrap */ 0);
-       rte_eal_remote_launch(master_worker, &param[0], w_lcore);
+       rte_eal_remote_launch(main_thread, &param[0], w_lcore);
 
        for (port = 1; port < nb_workers; port++) {
                param[port].total_events = &atomic_total_events;
@@ -634,7 +634,7 @@ launch_workers_and_wait(int (*master_worker)(void *),
                param[port].dequeue_tmo_ticks = dequeue_tmo_ticks;
                rte_smp_wmb();
                w_lcore = rte_get_next_lcore(w_lcore, 1, 0);
-               rte_eal_remote_launch(slave_workers, &param[port], w_lcore);
+               rte_eal_remote_launch(worker_thread, &param[port], w_lcore);
        }
 
        rte_smp_wmb();
index 4a7d823..5c7e527 100644 (file)
@@ -3106,7 +3106,7 @@ worker_loopback(struct test *t, uint8_t disable_implicit_release)
 
        p_lcore = rte_get_next_lcore(
                        /* start core */ -1,
-                       /* skip master */ 1,
+                       /* skip main */ 1,
                        /* wrap */ 0);
        w_lcore = rte_get_next_lcore(p_lcore, 1, 0);
 
index f7f6ee8..aeb6cb6 100644 (file)
@@ -429,7 +429,7 @@ int bnxt_alloc_rxtx_nq_ring(struct bnxt *bp)
        if (!BNXT_HAS_NQ(bp) || bp->rxtx_nq_ring)
                return 0;
 
-       socket_id = rte_lcore_to_socket_id(rte_get_master_lcore());
+       socket_id = rte_lcore_to_socket_id(rte_get_main_lcore());
 
        nqr = rte_zmalloc_socket("nqr",
                                 sizeof(struct bnxt_cp_ring_info),
@@ -820,7 +820,7 @@ int bnxt_alloc_async_ring_struct(struct bnxt *bp)
        if (BNXT_NUM_ASYNC_CPR(bp) == 0)
                return 0;
 
-       socket_id = rte_lcore_to_socket_id(rte_get_master_lcore());
+       socket_id = rte_lcore_to_socket_id(rte_get_main_lcore());
 
        cpr = rte_zmalloc_socket("cpr",
                                 sizeof(struct bnxt_cp_ring_info),
index 3c7c9d8..f25cf9e 100644 (file)
@@ -814,7 +814,7 @@ mrvl_flush_bpool(struct rte_eth_dev *dev)
        unsigned int core_id = rte_lcore_id();
 
        if (core_id == LCORE_ID_ANY)
-               core_id = rte_get_master_lcore();
+               core_id = rte_get_main_lcore();
 
        hif = mrvl_get_hif(priv, core_id);
 
@@ -1623,7 +1623,7 @@ mrvl_fill_bpool(struct mrvl_rxq *rxq, int num)
 
        core_id = rte_lcore_id();
        if (core_id == LCORE_ID_ANY)
-               core_id = rte_get_master_lcore();
+               core_id = rte_get_main_lcore();
 
        hif = mrvl_get_hif(rxq->priv, core_id);
        if (!hif)
@@ -1773,7 +1773,7 @@ mrvl_rx_queue_release(void *rxq)
        unsigned int core_id = rte_lcore_id();
 
        if (core_id == LCORE_ID_ANY)
-               core_id = rte_get_master_lcore();
+               core_id = rte_get_main_lcore();
 
        if (!q)
                return;
index 44a8692..2c59397 100644 (file)
@@ -143,7 +143,7 @@ void *osal_dma_alloc_coherent(struct ecore_dev *p_dev,
        snprintf(mz_name, sizeof(mz_name), "%lx",
                                        (unsigned long)rte_get_timer_cycles());
        if (core_id == (unsigned int)LCORE_ID_ANY)
-               core_id = rte_get_master_lcore();
+               core_id = rte_get_main_lcore();
        socket_id = rte_lcore_to_socket_id(core_id);
        mz = rte_memzone_reserve_aligned(mz_name, size, socket_id,
                        RTE_MEMZONE_IOVA_CONTIG, RTE_CACHE_LINE_SIZE);
@@ -182,7 +182,7 @@ void *osal_dma_alloc_coherent_aligned(struct ecore_dev *p_dev,
        snprintf(mz_name, sizeof(mz_name), "%lx",
                                        (unsigned long)rte_get_timer_cycles());
        if (core_id == (unsigned int)LCORE_ID_ANY)
-               core_id = rte_get_master_lcore();
+               core_id = rte_get_main_lcore();
        socket_id = rte_lcore_to_socket_id(core_id);
        mz = rte_memzone_reserve_aligned(mz_name, size, socket_id,
                        RTE_MEMZONE_IOVA_CONTIG, align);
index 77e0139..9c8737c 100644 (file)
@@ -554,7 +554,7 @@ TAILQ_HEAD(pipeline_list, pipeline);
 #endif
 
 /**
- * Master thead: data plane thread context
+ * Main thread: data plane thread context
  */
 struct softnic_thread {
        struct rte_ring *msgq_req;
index dcfb5eb..a8c26a5 100644 (file)
 #include "rte_eth_softnic_internals.h"
 
 /**
- * Master thread: data plane thread init
+ * Main thread: data plane thread init
  */
 void
 softnic_thread_free(struct pmd_internals *softnic)
 {
        uint32_t i;
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                struct softnic_thread *t = &softnic->thread[i];
 
                /* MSGQs */
@@ -78,7 +78,7 @@ softnic_thread_init(struct pmd_internals *softnic)
                        return -1;
                }
 
-               /* Master thread records */
+               /* Main thread records */
                t->msgq_req = msgq_req;
                t->msgq_rsp = msgq_rsp;
                t->service_id = UINT32_MAX;
@@ -99,7 +99,7 @@ softnic_thread_init(struct pmd_internals *softnic)
 static inline int
 thread_is_valid(struct pmd_internals *softnic, uint32_t thread_id)
 {
-       if (thread_id == rte_get_master_lcore())
+       if (thread_id == rte_get_main_lcore())
                return 0; /* FALSE */
 
        if (softnic->params.sc && rte_lcore_has_role(thread_id, ROLE_SERVICE))
@@ -209,7 +209,7 @@ pipeline_is_running(struct pipeline *p)
 }
 
 /**
- * Master thread & data plane threads: message passing
+ * Main thread & data plane threads: message passing
  */
 enum thread_req_type {
        THREAD_REQ_PIPELINE_ENABLE = 0,
@@ -243,7 +243,7 @@ struct thread_msg_rsp {
 };
 
 /**
- * Master thread
+ * Main thread
  */
 static struct thread_msg_req *
 thread_msg_alloc(void)
@@ -587,7 +587,7 @@ thread_msg_handle(struct softnic_thread_data *t)
 }
 
 /**
- * Master thread & data plane threads: message passing
+ * Main thread & data plane threads: message passing
  */
 enum pipeline_req_type {
        /* Port IN */
@@ -753,7 +753,7 @@ struct pipeline_msg_rsp {
 };
 
 /**
- * Master thread
+ * Main thread
  */
 static struct pipeline_msg_req *
 pipeline_msg_alloc(void)
index 6a7a03c..43fe631 100644 (file)
@@ -1044,7 +1044,7 @@ main(int argc, char **argv)
        struct stats_lcore_params stats_lcore;
        struct rte_ring *enc_to_dec_ring;
        bool stats_thread_started = false;
-       unsigned int master_lcore_id = rte_get_master_lcore();
+       unsigned int main_lcore_id = rte_get_main_lcore();
 
        rte_atomic16_init(&global_exit_flag);
 
@@ -1147,9 +1147,9 @@ main(int argc, char **argv)
        stats_lcore.app_params = &app_params;
        stats_lcore.lconf = lcore_conf;
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (lcore_conf[lcore_id].core_type != 0)
-                       /* launch per-lcore processing loop on slave lcores */
+                       /* launch per-lcore processing loop on worker lcores */
                        rte_eal_remote_launch(processing_loop,
                                        &lcore_conf[lcore_id], lcore_id);
                else if (!stats_thread_started) {
@@ -1161,15 +1161,15 @@ main(int argc, char **argv)
        }
 
        if (!stats_thread_started &&
-                       lcore_conf[master_lcore_id].core_type != 0)
+                       lcore_conf[main_lcore_id].core_type != 0)
                rte_exit(EXIT_FAILURE,
                                "Not enough lcores to run the statistics printing loop!");
-       else if (lcore_conf[master_lcore_id].core_type != 0)
-               processing_loop(&lcore_conf[master_lcore_id]);
+       else if (lcore_conf[main_lcore_id].core_type != 0)
+               processing_loop(&lcore_conf[main_lcore_id]);
        else if (!stats_thread_started)
                stats_loop(&stats_lcore);
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                ret |= rte_eal_wait_lcore(lcore_id);
        }
 
index 8608285..398553b 100644 (file)
@@ -573,7 +573,7 @@ static void cmd_start_parsed(__rte_unused void *parsed_result,
                               struct cmdline *cl,
                               __rte_unused void *data)
 {
-       int slave_core_id = rte_lcore_id();
+       int worker_core_id = rte_lcore_id();
 
        rte_spinlock_trylock(&global_flag_stru_p->lock);
        if (global_flag_stru_p->LcoreMainIsRunning == 0) {
@@ -590,9 +590,9 @@ static void cmd_start_parsed(__rte_unused void *parsed_result,
                return;
        }
 
-       /* start lcore main on core != master_core - ARP response thread */
-       slave_core_id = rte_get_next_lcore(rte_lcore_id(), 1, 0);
-       if ((slave_core_id >= RTE_MAX_LCORE) || (slave_core_id == 0))
+       /* start lcore main on core != main_core - ARP response thread */
+       worker_core_id = rte_get_next_lcore(rte_lcore_id(), 1, 0);
+       if ((worker_core_id >= RTE_MAX_LCORE) || (worker_core_id == 0))
                return;
 
        rte_spinlock_trylock(&global_flag_stru_p->lock);
@@ -601,8 +601,8 @@ static void cmd_start_parsed(__rte_unused void *parsed_result,
        cmdline_printf(cl,
                        "Starting lcore_main on core %d:%d "
                        "Our IP:%d.%d.%d.%d\n",
-                       slave_core_id,
-                       rte_eal_remote_launch(lcore_main, NULL, slave_core_id),
+                       worker_core_id,
+                       rte_eal_remote_launch(lcore_main, NULL, worker_core_id),
                        BOND_IP_1,
                        BOND_IP_2,
                        BOND_IP_3,
@@ -802,7 +802,7 @@ cmdline_parse_ctx_t main_ctx[] = {
        NULL,
 };
 
-/* prompt function, called from main on MASTER lcore */
+/* prompt function, called from main on MAIN lcore */
 static void prompt(__rte_unused void *arg1)
 {
        struct cmdline *cl;
@@ -818,7 +818,7 @@ static void prompt(__rte_unused void *arg1)
 int
 main(int argc, char *argv[])
 {
-       int ret, slave_core_id;
+       int ret, worker_core_id;
        uint16_t nb_ports, i;
 
        /* init EAL */
@@ -852,23 +852,23 @@ main(int argc, char *argv[])
        rte_spinlock_init(&global_flag_stru_p->lock);
 
        /* check state of lcores */
-       RTE_LCORE_FOREACH_SLAVE(slave_core_id) {
-               if (rte_eal_get_lcore_state(slave_core_id) != WAIT)
+       RTE_LCORE_FOREACH_WORKER(worker_core_id) {
+               if (rte_eal_get_lcore_state(worker_core_id) != WAIT)
                        return -EBUSY;
        }
 
-       /* start lcore main on core != master_core - ARP response thread */
-       slave_core_id = rte_get_next_lcore(rte_lcore_id(), 1, 0);
-       if ((slave_core_id >= RTE_MAX_LCORE) || (slave_core_id == 0))
+       /* start lcore main on core != main_core - ARP response thread */
+       worker_core_id = rte_get_next_lcore(rte_lcore_id(), 1, 0);
+       if ((worker_core_id >= RTE_MAX_LCORE) || (worker_core_id == 0))
                return -EPERM;
 
        global_flag_stru_p->LcoreMainIsRunning = 1;
-       global_flag_stru_p->LcoreMainCore = slave_core_id;
+       global_flag_stru_p->LcoreMainCore = worker_core_id;
        printf("Starting lcore_main on core %d:%d Our IP:%d.%d.%d.%d\n",
-                       slave_core_id,
+                       worker_core_id,
                        rte_eal_remote_launch((lcore_function_t *)lcore_main,
                                        NULL,
-                                       slave_core_id),
+                                       worker_core_id),
                        BOND_IP_1,
                        BOND_IP_2,
                        BOND_IP_3,
index dca48c2..caa7c46 100644 (file)
@@ -612,7 +612,7 @@ static int
 init_power_library(void)
 {
        int ret = 0, lcore_id;
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                /* init power management library */
                ret = rte_power_init(lcore_id);
                if (ret) {
@@ -805,7 +805,7 @@ main(int argc, char *argv[])
                 * available, the higher frequency cores will go to the
                 * distributor first, then rx, then tx.
                 */
-               RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+               RTE_LCORE_FOREACH_WORKER(lcore_id) {
 
                        rte_power_get_capabilities(lcore_id, &lcore_cap);
 
@@ -838,7 +838,7 @@ main(int argc, char *argv[])
         * after the high performing core assignment above, pre-assign
         * them here.
         */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (lcore_id == (unsigned int)distr_core_id ||
                                lcore_id == (unsigned int)rx_core_id ||
                                lcore_id == (unsigned int)tx_core_id)
@@ -869,7 +869,7 @@ main(int argc, char *argv[])
         * Kick off all the worker threads first, avoiding the pre-assigned
         * lcore_ids for tx, rx and distributor workloads.
         */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (lcore_id == (unsigned int)distr_core_id ||
                                lcore_id == (unsigned int)rx_core_id ||
                                lcore_id == (unsigned int)tx_core_id)
@@ -922,7 +922,7 @@ main(int argc, char *argv[])
                usleep(1000);
        }
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index 7383413..c6023a1 100644 (file)
@@ -176,7 +176,7 @@ static void process_frame(struct app_port *ptr_port,
        rte_ether_addr_copy(&ptr_port->mac_addr, &ptr_mac_hdr->s_addr);
 }
 
-static int slave_main(__rte_unused void *ptr_data)
+static int worker_main(__rte_unused void *ptr_data)
 {
        struct app_port *ptr_port;
        struct rte_mbuf *ptr_frame;
@@ -284,16 +284,17 @@ int main(int argc, char **argv)
        app_cfg.cnt_ports = cnt_ports;
 
        if (rte_lcore_count() < 2)
-               rte_exit(EXIT_FAILURE, "No available slave core!\n");
-       /* Assume there is an available slave.. */
+               rte_exit(EXIT_FAILURE, "No available worker core!\n");
+
+       /* Assume there is an available worker.. */
        id_core = rte_lcore_id();
        id_core = rte_get_next_lcore(id_core, 1, 1);
-       rte_eal_remote_launch(slave_main, NULL, id_core);
+       rte_eal_remote_launch(worker_main, NULL, id_core);
 
        ethapp_main();
 
        app_cfg.exit_now = 1;
-       RTE_LCORE_FOREACH_SLAVE(id_core) {
+       RTE_LCORE_FOREACH_WORKER(id_core) {
                if (rte_eal_wait_lcore(id_core) < 0)
                        return -1;
        }
index 597540c..823f8b5 100644 (file)
@@ -396,7 +396,7 @@ main(int argc, char **argv)
        }
 
        int worker_idx = 0;
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (lcore_id >= MAX_NUM_CORE)
                        break;
 
index 433e64d..335d7d2 100644 (file)
@@ -850,7 +850,7 @@ main(int argc, char *argv[])
                rte_exit(EXIT_FAILURE, "Failed to add rules\n");
        }
 
-       /* Call lcore_main on the master core only. */
+       /* Call lcore_main on the main core only. */
        lcore_main(cls_app);
 
        return 0;
index 968045f..8a4cee6 100644 (file)
@@ -34,12 +34,12 @@ main(int argc, char **argv)
        if (ret < 0)
                rte_panic("Cannot init EAL\n");
 
-       /* call lcore_hello() on every slave lcore */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       /* call lcore_hello() on every worker lcore */
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                rte_eal_remote_launch(lcore_hello, NULL, lcore_id);
        }
 
-       /* call it on master lcore too */
+       /* call it on main lcore too */
        lcore_hello(NULL);
 
        rte_eal_mp_wait_lcore();
index dc1ef95..6502e45 100644 (file)
@@ -516,7 +516,7 @@ tx_main_loop(void)
                        ioat_tx_port(&cfg.ports[i]);
 }
 
-/* Main rx and tx loop if only one slave lcore available */
+/* Main rx and tx loop if only one worker lcore available */
 static void
 rxtx_main_loop(void)
 {
@@ -978,7 +978,7 @@ main(int argc, char **argv)
        cfg.nb_lcores = rte_lcore_count() - 1;
        if (cfg.nb_lcores < 1)
                rte_exit(EXIT_FAILURE,
-                       "There should be at least one slave lcore.\n");
+                       "There should be at least one worker lcore.\n");
 
        if (copy_mode == COPY_MODE_IOAT_NUM)
                assign_rawdevs();
@@ -986,7 +986,7 @@ main(int argc, char **argv)
                assign_rings();
 
        start_forwarding_cores();
-       /* master core prints stats while other cores forward */
+       /* main core prints stats while other cores forward */
        print_stats(argv[0]);
 
        /* force_quit is true when we get here */
index c7348be..5a96841 100644 (file)
@@ -1069,8 +1069,8 @@ main(int argc, char **argv)
        check_all_ports_link_status(enabled_port_mask);
 
        /* launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index 97d1e91..c4aba39 100644 (file)
@@ -250,7 +250,7 @@ main(int argc, char **argv)
        rte_eal_mp_remote_launch(
                thread_main,
                NULL,
-               SKIP_MASTER);
+               SKIP_MAIN);
 
        /* Script */
        if (app.script_name)
index adb8316..b2e9732 100644 (file)
@@ -32,7 +32,7 @@
 #endif
 
 /**
- * Master thead: data plane thread context
+ * Main thread: data plane thread context
  */
 struct thread {
        struct rte_ring *msgq_req;
@@ -78,7 +78,7 @@ struct thread_data {
 static struct thread_data thread_data[RTE_MAX_LCORE];
 
 /**
- * Master thread: data plane thread init
+ * Main thread: data plane thread init
  */
 static void
 thread_free(void)
@@ -105,7 +105,7 @@ thread_init(void)
 {
        uint32_t i;
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                char name[NAME_MAX];
                struct rte_ring *msgq_req, *msgq_rsp;
                struct thread *t = &thread[i];
@@ -137,7 +137,7 @@ thread_init(void)
                        return -1;
                }
 
-               /* Master thread records */
+               /* Main thread records */
                t->msgq_req = msgq_req;
                t->msgq_rsp = msgq_rsp;
                t->enabled = 1;
@@ -179,7 +179,7 @@ pipeline_is_running(struct pipeline *p)
 }
 
 /**
- * Master thread & data plane threads: message passing
+ * Main thread & data plane threads: message passing
  */
 enum thread_req_type {
        THREAD_REQ_PIPELINE_ENABLE = 0,
@@ -213,7 +213,7 @@ struct thread_msg_rsp {
 };
 
 /**
- * Master thread
+ * Main thread
  */
 static struct thread_msg_req *
 thread_msg_alloc(void)
@@ -556,7 +556,7 @@ thread_msg_handle(struct thread_data *t)
 }
 
 /**
- * Master thread & data plane threads: message passing
+ * Main thread & data plane threads: message passing
  */
 enum pipeline_req_type {
        /* Port IN */
@@ -730,7 +730,7 @@ struct pipeline_msg_rsp {
 };
 
 /**
- * Master thread
+ * Main thread
  */
 static struct pipeline_msg_req *
 pipeline_msg_alloc(void)
index c4c9603..954a115 100644 (file)
@@ -1195,8 +1195,8 @@ main(int argc, char **argv)
        signal(SIGINT, signal_handler);
 
        /* launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index ce4dbdc..8475d54 100644 (file)
@@ -1461,16 +1461,16 @@ eh_conf_init(void)
 
        /* Set two cores as eth cores for Rx & Tx */
 
-       /* Use first core other than master core as Rx core */
+       /* Use first core other than main core as Rx core */
        eth_core_id = rte_get_next_lcore(0,     /* curr core */
-                                        1,     /* skip master core */
+                                        1,     /* skip main core */
                                         0      /* wrap */);
 
        rte_bitmap_set(em_conf->eth_core_mask, eth_core_id);
 
        /* Use next core as Tx core */
        eth_core_id = rte_get_next_lcore(eth_core_id,   /* curr core */
-                                        1,             /* skip master core */
+                                        1,             /* skip main core */
                                         0              /* wrap */);
 
        rte_bitmap_set(em_conf->eth_core_mask, eth_core_id);
index 5ed4678..2219148 100644 (file)
@@ -2981,8 +2981,8 @@ main(int32_t argc, char **argv)
 #endif /* STATS_INTERVAL */
 
        /* launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(ipsec_launch_one_lcore, eh_conf, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(ipsec_launch_one_lcore, eh_conf, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index a51b584..e18726a 100644 (file)
@@ -799,8 +799,8 @@ main(int argc, char **argv)
                rte_exit(EXIT_FAILURE, "Cannot build the multicast hash\n");
 
        /* launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index ac6309e..fe93b86 100644 (file)
@@ -967,7 +967,7 @@ kni_alloc(uint16_t port_id)
                conf.mbuf_size = MAX_PACKET_SZ;
                /*
                 * The first KNI device associated to a port
-                * is the master, for multiple kernel thread
+                * is the main, for multiple kernel thread
                 * environment.
                 */
                if (i == 0) {
@@ -1120,8 +1120,8 @@ main(int argc, char** argv)
                        "Could not create link status thread!\n");
 
        /* Launch per-lcore function on every lcore */
-       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(i) {
                if (rte_eal_wait_lcore(i) < 0)
                        return -1;
        }
index 45a497c..2e632c5 100644 (file)
@@ -198,7 +198,7 @@ main(int argc, char *argv[])
        if (rte_lcore_count() > 1)
                printf("\nWARNING: Too many lcores enabled. Only 1 used.\n");
 
-       /* Call lcore_main on the master core only. */
+       /* Call lcore_main on the main core only. */
        lcore_main();
 
        return 0;
index 2b86491..a96cb94 100644 (file)
@@ -874,8 +874,8 @@ l2fwd_main_loop(struct l2fwd_crypto_options *options)
                                if (unlikely(timer_tsc >=
                                                (uint64_t)timer_period)) {
 
-                                       /* do this only on master core */
-                                       if (lcore_id == rte_get_master_lcore()
+                                       /* do this only on main core */
+                                       if (lcore_id == rte_get_main_lcore()
                                                && options->refresh_period) {
                                                print_stats();
                                                timer_tsc = 0;
@@ -2799,8 +2799,8 @@ main(int argc, char **argv)
 
        /* launch per-lcore init on every lcore */
        rte_eal_mp_remote_launch(l2fwd_launch_one_lcore, (void *)&options,
-                       CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+                       CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index 9a3167c..ca7ea11 100644 (file)
@@ -72,7 +72,7 @@ l2fwd_event_device_setup_generic(struct l2fwd_resources *rsrc)
                event_d_conf.nb_event_port_enqueue_depth =
                                dev_info.max_event_port_enqueue_depth;
 
-       /* Ignore Master core and service cores. */
+       /* Ignore Main core and service cores. */
        num_workers = rte_lcore_count() - 1 - rte_service_lcore_count();
        if (dev_info.max_event_ports < num_workers)
                num_workers = dev_info.max_event_ports;
index 203a14c..c9a8430 100644 (file)
@@ -71,7 +71,7 @@ l2fwd_event_device_setup_internal_port(struct l2fwd_resources *rsrc)
                event_d_conf.nb_event_port_enqueue_depth =
                                dev_info.max_event_port_enqueue_depth;
 
-       /* Ignore Master core. */
+       /* Ignore Main core. */
        num_workers = rte_lcore_count() - 1;
        if (dev_info.max_event_ports < num_workers)
                num_workers = dev_info.max_event_ports;
index 2033c65..f7d8945 100644 (file)
@@ -116,7 +116,7 @@ l2fwd_poll_lcore_config(struct l2fwd_resources *rsrc)
 
                /* get the lcore_id for this port */
                while (rte_lcore_is_enabled(rx_lcore_id) == 0 ||
-                      rx_lcore_id == rte_get_master_lcore() ||
+                      rx_lcore_id == rte_get_main_lcore() ||
                       poll_rsrc->lcore_queue_conf[rx_lcore_id].n_rx_port ==
                       rsrc->rx_queue_per_lcore) {
                        rx_lcore_id++;
index b48794d..444ee4e 100644 (file)
@@ -667,7 +667,7 @@ main(int argc, char **argv)
 
        /* launch per-lcore init on every lcore */
        rte_eal_mp_remote_launch(l2fwd_launch_one_lcore, rsrc,
-                                SKIP_MASTER);
+                                SKIP_MAIN);
        l2fwd_event_print_stats(rsrc);
        if (rsrc->event_mode) {
                struct l2fwd_event_resources *evt_rsrc =
index 1dbe066..1151769 100644 (file)
@@ -1016,8 +1016,8 @@ main(int argc, char **argv)
                RTE_LOG(INFO, L2FWD, "Stats display disabled\n");
 
        /* launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(l2fwd_launch_one_lcore, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(l2fwd_launch_one_lcore, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index d0e8bf3..e4c2b27 100644 (file)
@@ -786,8 +786,8 @@ main(int argc, char **argv)
                                ) != 0 )
                        rte_exit(EXIT_FAILURE, "Stats setup failure.\n");
        }
-       /* launch per-lcore init on every slave lcore */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       /* launch per-lcore init on every worker lcore */
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                struct lcore_queue_conf *qconf = &lcore_queue_conf[lcore_id];
 
                if (qconf->n_rx_port == 0)
@@ -810,7 +810,7 @@ main(int argc, char **argv)
                rte_delay_ms(5);
                }
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index 7d1b08a..3377b08 100644 (file)
@@ -260,8 +260,8 @@ l2fwd_main_loop(void)
                                /* if timer has reached its timeout */
                                if (unlikely(timer_tsc >= timer_period)) {
 
-                                       /* do this only on master core */
-                                       if (lcore_id == rte_get_master_lcore()) {
+                                       /* do this only on main core */
+                                       if (lcore_id == rte_get_main_lcore()) {
                                                print_stats();
                                                /* reset the timer */
                                                timer_tsc = 0;
@@ -884,8 +884,8 @@ main(int argc, char **argv)
 
        ret = 0;
        /* launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(l2fwd_launch_one_lcore, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(l2fwd_launch_one_lcore, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0) {
                        ret = -1;
                        break;
index bedb62c..961594f 100644 (file)
@@ -2251,8 +2251,8 @@ main(int argc, char **argv)
        check_all_ports_link_status(enabled_port_mask);
 
        /* launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index 2fd536e..127c5e8 100644 (file)
@@ -167,8 +167,8 @@ check_lcore_params(void)
                        return -1;
                }
 
-               if (lcore == rte_get_master_lcore()) {
-                       printf("Error: lcore %u is master lcore\n", lcore);
+               if (lcore == rte_get_main_lcore()) {
+                       printf("Error: lcore %u is main lcore\n", lcore);
                        return -1;
                }
                socketid = rte_lcore_to_socket_id(lcore);
@@ -1091,16 +1091,16 @@ main(int argc, char **argv)
                        route_str, i);
        }
 
-       /* Launch per-lcore init on every slave lcore */
-       rte_eal_mp_remote_launch(graph_main_loop, NULL, SKIP_MASTER);
+       /* Launch per-lcore init on every worker lcore */
+       rte_eal_mp_remote_launch(graph_main_loop, NULL, SKIP_MAIN);
 
-       /* Accumulate and print stats on master until exit */
+       /* Accumulate and print stats on main until exit */
        if (rte_graph_has_stats_feature())
                print_stats();
 
-       /* Wait for slave cores to exit */
+       /* Wait for worker cores to exit */
        ret = 0;
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                ret = rte_eal_wait_lcore(lcore_id);
                /* Destroy graph */
                if (ret < 0 || rte_graph_destroy(
index b1535b2..a48d75f 100644 (file)
@@ -1514,7 +1514,7 @@ check_lcore_params(void)
                                                "off\n", lcore, socketid);
                }
                if (app_mode == APP_MODE_TELEMETRY && lcore == rte_lcore_id()) {
-                       printf("cannot enable master core %d in config for telemetry mode\n",
+                       printf("cannot enable main core %d in config for telemetry mode\n",
                                rte_lcore_id());
                        return -1;
                }
@@ -2283,7 +2283,7 @@ get_current_stat_values(uint64_t *values)
        uint64_t app_eps = 0, app_fps = 0, app_br = 0;
        uint64_t count = 0;
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                qconf = &lcore_conf[lcore_id];
                if (qconf->n_rx_queue == 0)
                        continue;
@@ -2375,10 +2375,10 @@ launch_timer(unsigned int lcore_id)
        RTE_SET_USED(lcore_id);
 
 
-       if (rte_get_master_lcore() != lcore_id) {
-               rte_panic("timer on lcore:%d which is not master core:%d\n",
+       if (rte_get_main_lcore() != lcore_id) {
+               rte_panic("timer on lcore:%d which is not main core:%d\n",
                                lcore_id,
-                               rte_get_master_lcore());
+                               rte_get_main_lcore());
        }
 
        RTE_LOG(INFO, POWER, "Bring up the Timer\n");
@@ -2759,11 +2759,11 @@ main(int argc, char **argv)
 
        /* launch per-lcore init on every lcore */
        if (app_mode == APP_MODE_LEGACY) {
-               rte_eal_mp_remote_launch(main_legacy_loop, NULL, CALL_MASTER);
+               rte_eal_mp_remote_launch(main_legacy_loop, NULL, CALL_MAIN);
        } else if (app_mode == APP_MODE_EMPTY_POLL) {
                empty_poll_stop = false;
                rte_eal_mp_remote_launch(main_empty_poll_loop, NULL,
-                               SKIP_MASTER);
+                               SKIP_MAIN);
        } else if (app_mode == APP_MODE_TELEMETRY) {
                unsigned int i;
 
@@ -2779,7 +2779,7 @@ main(int argc, char **argv)
                else
                        rte_exit(EXIT_FAILURE, "failed to register metrics names");
 
-               RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+               RTE_LCORE_FOREACH_WORKER(lcore_id) {
                        rte_spinlock_init(&stats[lcore_id].telemetry_lock);
                }
                rte_timer_init(&telemetry_timer);
@@ -2787,15 +2787,15 @@ main(int argc, char **argv)
                                handle_app_stats,
                                "Returns global power stats. Parameters: None");
                rte_eal_mp_remote_launch(main_telemetry_loop, NULL,
-                                               SKIP_MASTER);
+                                               SKIP_MAIN);
        } else if (app_mode == APP_MODE_INTERRUPT) {
-               rte_eal_mp_remote_launch(main_intr_loop, NULL, CALL_MASTER);
+               rte_eal_mp_remote_launch(main_intr_loop, NULL, CALL_MAIN);
        }
 
        if (app_mode == APP_MODE_EMPTY_POLL || app_mode == APP_MODE_TELEMETRY)
                launch_timer(rte_lcore_id());
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index 3811a1e..d62dec4 100644 (file)
@@ -1272,7 +1272,7 @@ main(int argc, char **argv)
 
        ret = 0;
        /* launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(l3fwd_lkp.main_loop, NULL, CALL_MASTER);
+       rte_eal_mp_remote_launch(l3fwd_lkp.main_loop, NULL, CALL_MAIN);
        if (evt_rsrc->enabled) {
                for (i = 0; i < evt_rsrc->rx_adptr.nb_rx_adptr; i++)
                        rte_event_eth_rx_adapter_stop(
index e20a7e2..f1653b4 100644 (file)
@@ -255,8 +255,8 @@ lsi_main_loop(void)
                                /* if timer has reached its timeout */
                                if (unlikely(timer_tsc >= (uint64_t) timer_period)) {
 
-                                       /* do this only on master core */
-                                       if (lcore_id == rte_get_master_lcore()) {
+                                       /* do this only on main core */
+                                       if (lcore_id == rte_get_main_lcore()) {
                                                print_stats();
                                                /* reset the timer */
                                                timer_tsc = 0;
@@ -725,8 +725,8 @@ main(int argc, char **argv)
        check_all_ports_link_status(nb_ports, lsi_enabled_port_mask);
 
        /* launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(lsi_launch_one_lcore, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(lsi_launch_one_lcore, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index 280dab8..ec7f6b1 100644 (file)
@@ -84,7 +84,7 @@ get_printable_mac_addr(uint16_t port)
 /*
  * This function displays the recorded statistics for each port
  * and for each client. It uses ANSI terminal codes to clear
- * screen when called. It is called from a single non-master
+ * screen when called. It is called from a single worker
  * thread in the server process, when the process is run with more
  * than one lcore enabled.
  */
@@ -146,7 +146,7 @@ do_stats_display(void)
 }
 
 /*
- * The function called from each non-master lcore used by the process.
+ * The function called from each worker lcore used by the process.
  * The test_and_set function is used to randomly pick a single lcore on which
  * the code to display the statistics will run. Otherwise, the code just
  * repeatedly sleeps.
@@ -244,7 +244,7 @@ process_packets(uint32_t port_num __rte_unused,
 }
 
 /*
- * Function called by the master lcore of the DPDK process.
+ * Function called by the main lcore of the DPDK process.
  */
 static void
 do_packet_forwarding(void)
@@ -297,8 +297,8 @@ main(int argc, char *argv[])
        /* clear statistics */
        clear_stats();
 
-       /* put all other cores to sleep bar master */
-       rte_eal_mp_remote_launch(sleep_lcore, NULL, SKIP_MASTER);
+       /* put all other cores to sleep except main */
+       rte_eal_mp_remote_launch(sleep_lcore, NULL, SKIP_MAIN);
 
        do_packet_forwarding();
        return 0;
index fc79528..109b8bb 100644 (file)
@@ -108,12 +108,12 @@ main(int argc, char **argv)
 
        RTE_LOG(INFO, APP, "Finished Process Init.\n");
 
-       /* call lcore_recv() on every slave lcore */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       /* call lcore_recv() on every worker lcore */
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                rte_eal_remote_launch(lcore_recv, NULL, lcore_id);
        }
 
-       /* call cmd prompt on master lcore */
+       /* call cmd prompt on main lcore */
        struct cmdline *cl = cmdline_stdin_new(simple_mp_ctx, "\nsimple_mp > ");
        if (cl == NULL)
                rte_exit(EXIT_FAILURE, "Cannot create cmdline instance\n");
index 33643d3..ae7f5e0 100644 (file)
@@ -470,7 +470,7 @@ main(int argc, char **argv)
 
        RTE_LOG(INFO, APP, "Finished Process Init.\n");
 
-       rte_eal_mp_remote_launch(lcore_main, NULL, CALL_MASTER);
+       rte_eal_mp_remote_launch(lcore_main, NULL, CALL_MAIN);
 
        return 0;
 }
index 139da54..54b7f08 100644 (file)
@@ -162,7 +162,7 @@ cmd_quit_parsed(__rte_unused void *parsed_result,
        uint32_t lcore_id;
 
        /* Stop transmission first. */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                conf = &fwd_lcore_conf[lcore_id];
 
                if (!conf->nb_stream)
@@ -668,7 +668,7 @@ assign_stream_to_lcores(void)
        uint8_t lcore_num, nb_extra;
 
        lcore_num = rte_lcore_count();
-       /* Exclude master core */
+       /* Exclude main core */
        lcore_num--;
 
        nb_streams = (fwd_mode == IOFWD) ? num_queues * 2 : num_queues;
@@ -678,7 +678,7 @@ assign_stream_to_lcores(void)
        sm_id = 0;
        i = 0;
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                conf = &fwd_lcore_conf[lcore_id];
 
                if (i < nb_extra) {
@@ -697,7 +697,7 @@ assign_stream_to_lcores(void)
        }
 
        /* Print packet forwading config. */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                conf = &fwd_lcore_conf[lcore_id];
 
                if (!conf->nb_stream)
@@ -766,7 +766,7 @@ start_pkt_fwd(void)
        assign_stream_to_lcores();
        in_test = 1;
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                conf = &fwd_lcore_conf[lcore_id];
 
                if (!conf->nb_stream)
@@ -827,7 +827,7 @@ cmd_stop_parsed(__rte_unused void *parsed_result,
        struct ntb_fwd_lcore_conf *conf;
        uint32_t lcore_id;
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                conf = &fwd_lcore_conf[lcore_id];
 
                if (!conf->nb_stream)
@@ -1075,7 +1075,7 @@ cmdline_parse_ctx_t main_ctx[] = {
        NULL,
 };
 
-/* prompt function, called from main on MASTER lcore */
+/* prompt function, called from main on MAIN lcore */
 static void
 prompt(void)
 {
index b5fc6c5..a79d77a 100644 (file)
@@ -345,10 +345,10 @@ print_stats(void)
 {
        uint16_t i;
        struct rte_eth_stats eth_stats;
-       unsigned int lcore_id, last_lcore_id, master_lcore_id, end_w_lcore_id;
+       unsigned int lcore_id, last_lcore_id, main_lcore_id, end_w_lcore_id;
 
        last_lcore_id   = get_last_lcore_id();
-       master_lcore_id = rte_get_master_lcore();
+       main_lcore_id = rte_get_main_lcore();
        end_w_lcore_id  = get_previous_lcore_id(last_lcore_id);
 
        printf("\nRX thread stats:\n");
@@ -360,7 +360,7 @@ print_stats(void)
        for (lcore_id = 0; lcore_id <= end_w_lcore_id; lcore_id++) {
                if (insight_worker
                        && rte_lcore_is_enabled(lcore_id)
-                       && lcore_id != master_lcore_id) {
+                       && lcore_id != main_lcore_id) {
                        printf("\nWorker thread stats on core [%u]:\n",
                                        lcore_id);
                        printf(" - Pkts deqd from workers ring:         %"PRIu64"\n",
@@ -658,7 +658,7 @@ main(int argc, char **argv)
 {
        int ret;
        unsigned nb_ports;
-       unsigned int lcore_id, last_lcore_id, master_lcore_id;
+       unsigned int lcore_id, last_lcore_id, main_lcore_id;
        uint16_t port_id;
        uint16_t nb_ports_available;
        struct worker_thread_args worker_args = {NULL, NULL};
@@ -745,32 +745,32 @@ main(int argc, char **argv)
        }
 
        last_lcore_id   = get_last_lcore_id();
-       master_lcore_id = rte_get_master_lcore();
+       main_lcore_id = rte_get_main_lcore();
 
        worker_args.ring_in  = rx_to_workers;
        worker_args.ring_out = workers_to_tx;
 
-       /* Start worker_thread() on all the available slave cores but the last 1 */
+       /* Start worker_thread() on all the available worker cores but the last 1 */
        for (lcore_id = 0; lcore_id <= get_previous_lcore_id(last_lcore_id); lcore_id++)
-               if (rte_lcore_is_enabled(lcore_id) && lcore_id != master_lcore_id)
+               if (rte_lcore_is_enabled(lcore_id) && lcore_id != main_lcore_id)
                        rte_eal_remote_launch(worker_thread, (void *)&worker_args,
                                        lcore_id);
 
        if (disable_reorder) {
-               /* Start tx_thread() on the last slave core */
+               /* Start tx_thread() on the last worker core */
                rte_eal_remote_launch((lcore_function_t *)tx_thread, workers_to_tx,
                                last_lcore_id);
        } else {
                send_args.ring_in = workers_to_tx;
-               /* Start send_thread() on the last slave core */
+               /* Start send_thread() on the last worker core */
                rte_eal_remote_launch((lcore_function_t *)send_thread,
                                (void *)&send_args, last_lcore_id);
        }
 
-       /* Start rx_thread() on the master core */
+       /* Start rx_thread() on the main core */
        rx_thread(rx_to_workers);
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index 818e483..e96076f 100644 (file)
@@ -2211,7 +2211,7 @@ lthread_rx(void *dummy)
 /*
  * Start scheduler with initial lthread on lcore
  *
- * This lthread loop spawns all rx and tx lthreads on master lcore
+ * This lthread loop spawns all rx and tx lthreads on main lcore
  */
 
 static void *
@@ -2261,11 +2261,11 @@ lthread_spawner(__rte_unused void *arg)
 }
 
 /*
- * Start master scheduler with initial lthread spawning rx and tx lthreads
- * (main_lthread_master).
+ * Start main scheduler with initial lthread spawning rx and tx lthreads
+ * (main_lthread_main).
  */
 static int
-lthread_master_spawner(__rte_unused void *arg) {
+lthread_main_spawner(__rte_unused void *arg) {
        struct lthread *lt;
        int lcore_id = rte_lcore_id();
 
@@ -3759,14 +3759,14 @@ main(int argc, char **argv)
 #endif
 
                lthread_num_schedulers_set(nb_lcores);
-               rte_eal_mp_remote_launch(sched_spawner, NULL, SKIP_MASTER);
-               lthread_master_spawner(NULL);
+               rte_eal_mp_remote_launch(sched_spawner, NULL, SKIP_MAIN);
+               lthread_main_spawner(NULL);
 
        } else {
                printf("Starting P-Threading Model\n");
                /* launch per-lcore init on every lcore */
-               rte_eal_mp_remote_launch(pthread_run, NULL, CALL_MASTER);
-               RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+               rte_eal_mp_remote_launch(pthread_run, NULL, CALL_MAIN);
+               RTE_LCORE_FOREACH_WORKER(lcore_id) {
                        if (rte_eal_wait_lcore(lcore_id) < 0)
                                return -1;
                }
index 18f8305..23e3b5e 100644 (file)
@@ -252,10 +252,10 @@ int main(int argc, char **argv)
        lthread_num_schedulers_set(num_sched);
 
        /* launch all threads */
-       rte_eal_mp_remote_launch(lthread_scheduler, (void *)NULL, CALL_MASTER);
+       rte_eal_mp_remote_launch(lthread_scheduler, (void *)NULL, CALL_MAIN);
 
        /* wait for threads to stop */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                rte_eal_wait_lcore(lcore_id);
        }
        return 0;
index 2303c9e..fb57ef3 100644 (file)
@@ -166,7 +166,7 @@ main(int argc, char **argv)
        rte_eal_mp_remote_launch(
                thread_main,
                NULL,
-               SKIP_MASTER);
+               SKIP_MAIN);
 
        /* Script */
        if (app.script_name)
index 7ff22e9..6ac27e4 100644 (file)
@@ -93,7 +93,7 @@ thread_init(void)
 {
        uint32_t i;
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
                char name[NAME_MAX];
                struct rte_ring *msgq_req, *msgq_rsp;
                struct thread *t = &thread[i];
index 20da325..09968cd 100644 (file)
@@ -372,7 +372,7 @@ parse_sync(struct ptpv2_data_slave_ordinary *ptp_data, uint16_t rx_tstamp_idx)
 }
 
 /*
- * Parse the PTP FOLLOWUP message and send DELAY_REQ to the master clock.
+ * Parse the PTP FOLLOWUP message and send DELAY_REQ to the main clock.
  */
 static void
 parse_fup(struct ptpv2_data_slave_ordinary *ptp_data)
@@ -782,7 +782,7 @@ main(int argc, char *argv[])
        if (rte_lcore_count() > 1)
                printf("\nWARNING: Too many lcores enabled. Only 1 used.\n");
 
-       /* Call lcore_main on the master core only. */
+       /* Call lcore_main on the main core only. */
        lcore_main();
 
        return 0;
index ce87b2e..f2d9c28 100644 (file)
@@ -454,8 +454,8 @@ main(int argc, char **argv)
                rte_exit(EXIT_FAILURE, "Invalid configure flow table\n");
 
        /* Launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(main_loop, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index 7431b29..c627196 100644 (file)
@@ -22,7 +22,7 @@
 #define MAX_OPT_VALUES 8
 #define SYS_CPU_DIR "/sys/devices/system/cpu/cpu%u/topology/"
 
-static uint32_t app_master_core = 1;
+static uint32_t app_main_core = 1;
 static uint32_t app_numa_mask;
 static uint64_t app_used_core_mask = 0;
 static uint64_t app_used_port_mask = 0;
@@ -40,7 +40,7 @@ static const char usage[] =
        "                                                                               \n"
        "Application optional parameters:                                               \n"
         "    --i     : run in interactive mode (default value is %u)                    \n"
-       "    --mst I : master core index (default value is %u)                          \n"
+       "    --mnc I : main core index (default value is %u)                            \n"
        "    --rsz \"A, B, C\" :   Ring sizes                                           \n"
        "           A = Size (in number of buffer descriptors) of each of the NIC RX    \n"
        "               rings read by the I/O RX lcores (default value is %u)           \n"
@@ -72,7 +72,7 @@ static const char usage[] =
 static void
 app_usage(const char *prgname)
 {
-       printf(usage, prgname, APP_INTERACTIVE_DEFAULT, app_master_core,
+       printf(usage, prgname, APP_INTERACTIVE_DEFAULT, app_main_core,
                APP_RX_DESC_DEFAULT, APP_RING_SIZE, APP_TX_DESC_DEFAULT,
                MAX_PKT_RX_BURST, PKT_ENQUEUE, PKT_DEQUEUE,
                MAX_PKT_TX_BURST, NB_MBUF,
@@ -98,7 +98,7 @@ app_eal_core_mask(void)
                        cm |= (1ULL << i);
        }
 
-       cm |= (1ULL << rte_get_master_lcore());
+       cm |= (1ULL << rte_get_main_lcore());
 
        return cm;
 }
@@ -312,7 +312,7 @@ app_parse_args(int argc, char **argv)
 
        static struct option lgopts[] = {
                { "pfc", 1, 0, 0 },
-               { "mst", 1, 0, 0 },
+               { "mnc", 1, 0, 0 },
                { "rsz", 1, 0, 0 },
                { "bsz", 1, 0, 0 },
                { "msz", 1, 0, 0 },
@@ -352,8 +352,8 @@ app_parse_args(int argc, char **argv)
                                        }
                                        break;
                                }
-                               if (str_is(optname, "mst")) {
-                                       app_master_core = (uint32_t)atoi(optarg);
+                               if (str_is(optname, "mnc")) {
+                                       app_main_core = (uint32_t)atoi(optarg);
                                        break;
                                }
                                if (str_is(optname, "rsz")) {
@@ -408,18 +408,18 @@ app_parse_args(int argc, char **argv)
                        }
        }
 
-       /* check master core index validity */
-       for(i = 0; i <= app_master_core; i++) {
-               if (app_used_core_mask & (1u << app_master_core)) {
-                       RTE_LOG(ERR, APP, "Master core index is not configured properly\n");
+       /* check main core index validity */
+       for (i = 0; i <= app_main_core; i++) {
+               if (app_used_core_mask & (1u << app_main_core)) {
+                       RTE_LOG(ERR, APP, "Main core index is not configured properly\n");
                        app_usage(prgname);
                        return -1;
                }
        }
-       app_used_core_mask |= 1u << app_master_core;
+       app_used_core_mask |= 1u << app_main_core;
 
        if ((app_used_core_mask != app_eal_core_mask()) ||
-                       (app_master_core != rte_get_master_lcore())) {
+                       (app_main_core != rte_get_main_lcore())) {
                RTE_LOG(ERR, APP, "EAL core mask not configured properly, must be %" PRIx64
                                " instead of %" PRIx64 "\n" , app_used_core_mask, app_eal_core_mask());
                return -1;
index ba68e0d..1cf7ea9 100644 (file)
@@ -599,7 +599,7 @@ cmdline_parse_ctx_t main_ctx[] = {
        NULL,
 };
 
-/* prompt function, called from main on MASTER lcore */
+/* prompt function, called from main on MAIN lcore */
 void
 prompt(void)
 {
index 73864d6..a6071b9 100644 (file)
@@ -204,7 +204,7 @@ main(int argc, char **argv)
                return -1;
 
        /* launch per-lcore init on every lcore */
-       rte_eal_mp_remote_launch(app_main_loop, NULL, SKIP_MASTER);
+       rte_eal_mp_remote_launch(app_main_loop, NULL, SKIP_MAIN);
 
        if (interactive) {
                sleep(1);
index 54d124b..6fe3954 100644 (file)
@@ -302,7 +302,7 @@ main(int argc, char *argv[])
                printf("\nWARNING: Too much enabled lcores - "
                        "App uses only 1 lcore\n");
 
-       /* call lcore_main on master core only */
+       /* call lcore_main on main core only */
        lcore_main();
        return 0;
 }
index 05f961c..4728960 100644 (file)
@@ -95,7 +95,7 @@ get_printable_mac_addr(uint16_t port)
 /*
  * This function displays the recorded statistics for each port
  * and for each node. It uses ANSI terminal codes to clear
- * screen when called. It is called from a single non-master
+ * screen when called. It is called from a single worker
  * thread in the server process, when the process is run with more
  * than one lcore enabled.
  */
@@ -168,7 +168,7 @@ do_stats_display(void)
 }
 
 /*
- * The function called from each non-master lcore used by the process.
+ * The function called from each non-main lcore used by the process.
  * The test_and_set function is used to randomly pick a single lcore on which
  * the code to display the statistics will run. Otherwise, the code just
  * repeatedly sleeps.
@@ -290,7 +290,7 @@ process_packets(uint32_t port_num __rte_unused, struct rte_mbuf *pkts[],
 }
 
 /*
- * Function called by the master lcore of the DPDK process.
+ * Function called by the main lcore of the DPDK process.
  */
 static void
 do_packet_forwarding(void)
@@ -330,8 +330,8 @@ main(int argc, char *argv[])
        /* clear statistics */
        clear_stats();
 
-       /* put all other cores to sleep bar master */
-       rte_eal_mp_remote_launch(sleep_lcore, NULL, SKIP_MASTER);
+       /* put all other cores to sleep except main */
+       rte_eal_mp_remote_launch(sleep_lcore, NULL, SKIP_MAIN);
 
        do_packet_forwarding();
        return 0;
index 72ba85f..4b2b6ab 100644 (file)
@@ -202,7 +202,7 @@ main(int argc, char *argv[])
        if (rte_lcore_count() > 1)
                printf("\nWARNING: Too many lcores enabled. Only 1 used.\n");
 
-       /* Call lcore_main on the master core only. */
+       /* Call lcore_main on the main core only. */
        lcore_main();
 
        return 0;
index 232ed59..15bf8bb 100644 (file)
@@ -835,7 +835,7 @@ init_data_ll(void)
 {
        int lcore;
 
-       RTE_LCORE_FOREACH_SLAVE(lcore) {
+       RTE_LCORE_FOREACH_WORKER(lcore) {
                lcore_info[lcore].lcore_ll =
                        malloc(sizeof(struct lcore_ll_info));
                if (lcore_info[lcore].lcore_ll == NULL) {
@@ -927,7 +927,7 @@ destroy_device(int vid)
        rm_data_ll_entry(&ll_root_used, ll_main_dev_cur, ll_main_dev_last);
 
        /* Set the dev_removal_flag on each lcore. */
-       RTE_LCORE_FOREACH_SLAVE(lcore) {
+       RTE_LCORE_FOREACH_WORKER(lcore) {
                lcore_info[lcore].lcore_ll->dev_removal_flag =
                        REQUEST_DEV_REMOVAL;
        }
@@ -938,7 +938,7 @@ destroy_device(int vid)
         * the device removed from the linked lists and that the devices
         * are no longer in use.
         */
-       RTE_LCORE_FOREACH_SLAVE(lcore) {
+       RTE_LCORE_FOREACH_WORKER(lcore) {
                while (lcore_info[lcore].lcore_ll->dev_removal_flag
                        != ACK_DEV_REMOVAL)
                        rte_pause();
@@ -998,7 +998,7 @@ new_device(int vid)
        vdev->remove = 0;
 
        /* Find a suitable lcore to add the device. */
-       RTE_LCORE_FOREACH_SLAVE(lcore) {
+       RTE_LCORE_FOREACH_WORKER(lcore) {
                if (lcore_info[lcore].lcore_ll->device_num < device_num_min) {
                        device_num_min = lcore_info[lcore].lcore_ll->device_num;
                        core_add = lcore;
@@ -1204,7 +1204,7 @@ main(int argc, char *argv[])
        }
 
        /* Launch all data cores. */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                rte_eal_remote_launch(switch_worker,
                        mbuf_pool, lcore_id);
        }
@@ -1228,7 +1228,7 @@ main(int argc, char *argv[])
                        "failed to start vhost driver.\n");
        }
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id)
+       RTE_LCORE_FOREACH_WORKER(lcore_id)
                rte_eal_wait_lcore(lcore_id);
 
        return 0;
index 0259022..5a57e48 100644 (file)
@@ -100,7 +100,7 @@ main(int argc, char **argv)
        rte_timer_init(&timer0);
        rte_timer_init(&timer1);
 
-       /* load timer0, every second, on master lcore, reloaded automatically */
+       /* load timer0, every second, on main lcore, reloaded automatically */
        hz = rte_get_timer_hz();
        lcore_id = rte_lcore_id();
        rte_timer_reset(&timer0, hz, PERIODICAL, lcore_id, timer0_cb, NULL);
@@ -109,12 +109,12 @@ main(int argc, char **argv)
        lcore_id = rte_get_next_lcore(lcore_id, 0, 1);
        rte_timer_reset(&timer1, hz/3, SINGLE, lcore_id, timer1_cb, NULL);
 
-       /* call lcore_mainloop() on every slave lcore */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       /* call lcore_mainloop() on every worker lcore */
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                rte_eal_remote_launch(lcore_mainloop, NULL, lcore_id);
        }
 
-       /* call it on master lcore too */
+       /* call it on main lcore too */
        (void) lcore_mainloop(NULL);
 
        return 0;
index 959c0c2..faa4822 100644 (file)
@@ -1189,7 +1189,7 @@ destroy_device(int vid)
 
 
        /* Set the dev_removal_flag on each lcore. */
-       RTE_LCORE_FOREACH_SLAVE(lcore)
+       RTE_LCORE_FOREACH_WORKER(lcore)
                lcore_info[lcore].dev_removal_flag = REQUEST_DEV_REMOVAL;
 
        /*
@@ -1197,7 +1197,7 @@ destroy_device(int vid)
         * we can be sure that they can no longer access the device removed
         * from the linked lists and that the devices are no longer in use.
         */
-       RTE_LCORE_FOREACH_SLAVE(lcore) {
+       RTE_LCORE_FOREACH_WORKER(lcore) {
                while (lcore_info[lcore].dev_removal_flag != ACK_DEV_REMOVAL)
                        rte_pause();
        }
@@ -1242,7 +1242,7 @@ new_device(int vid)
        vdev->remove = 0;
 
        /* Find a suitable lcore to add the device. */
-       RTE_LCORE_FOREACH_SLAVE(lcore) {
+       RTE_LCORE_FOREACH_WORKER(lcore) {
                if (lcore_info[lcore].device_num < device_num_min) {
                        device_num_min = lcore_info[lcore].device_num;
                        core_add = lcore;
@@ -1491,7 +1491,7 @@ main(int argc, char *argv[])
        }
 
        /* Launch all data cores. */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id)
+       RTE_LCORE_FOREACH_WORKER(lcore_id)
                rte_eal_remote_launch(switch_worker, NULL, lcore_id);
 
        if (client_mode)
@@ -1549,7 +1549,7 @@ main(int argc, char *argv[])
                }
        }
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id)
+       RTE_LCORE_FOREACH_WORKER(lcore_id)
                rte_eal_wait_lcore(lcore_id);
 
        return 0;
index 660be40..3cb890f 100644 (file)
@@ -653,8 +653,8 @@ main(int argc, char *argv[])
        }
 
        /* call lcore_main() on every lcore */
-       rte_eal_mp_remote_launch(lcore_main, NULL, CALL_MASTER);
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       rte_eal_mp_remote_launch(lcore_main, NULL, CALL_MAIN);
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (rte_eal_wait_lcore(lcore_id) < 0)
                        return -1;
        }
index 83a6843..1a74364 100644 (file)
@@ -699,12 +699,12 @@ main(int argc, char *argv[])
                        rte_exit(EXIT_FAILURE, "Cannot initialize network ports\n");
        }
 
-       /* call lcore_main() on every slave lcore */
+       /* call lcore_main() on every worker lcore */
        i = 0;
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                rte_eal_remote_launch(lcore_main, (void*)i++, lcore_id);
        }
-       /* call on master too */
+       /* call on main too */
        (void) lcore_main((void*)i);
 
        return 0;
index 614648d..1cefe52 100644 (file)
@@ -427,19 +427,19 @@ eal_dynmem_calc_num_pages_per_socket(
                        total_size -= default_size;
                }
 #else
-               /* in 32-bit mode, allocate all of the memory only on master
+               /* in 32-bit mode, allocate all of the memory only on main
                 * lcore socket
                 */
                total_size = internal_conf->memory;
                for (socket = 0; socket < RTE_MAX_NUMA_NODES && total_size != 0;
                                socket++) {
                        struct rte_config *cfg = rte_eal_get_configuration();
-                       unsigned int master_lcore_socket;
+                       unsigned int main_lcore_socket;
 
-                       master_lcore_socket =
-                               rte_lcore_to_socket_id(cfg->master_lcore);
+                       main_lcore_socket =
+                               rte_lcore_to_socket_id(cfg->main_lcore);
 
-                       if (master_lcore_socket != socket)
+                       if (main_lcore_socket != socket)
                                continue;
 
                        /* Update sizes */
index cf52d71..34f854a 100644 (file)
  * Wait until a lcore finished its job.
  */
 int
-rte_eal_wait_lcore(unsigned slave_id)
+rte_eal_wait_lcore(unsigned worker_id)
 {
-       if (lcore_config[slave_id].state == WAIT)
+       if (lcore_config[worker_id].state == WAIT)
                return 0;
 
-       while (lcore_config[slave_id].state != WAIT &&
-              lcore_config[slave_id].state != FINISHED)
+       while (lcore_config[worker_id].state != WAIT &&
+              lcore_config[worker_id].state != FINISHED)
                rte_pause();
 
        rte_rmb();
 
        /* we are in finished state, go to wait state */
-       lcore_config[slave_id].state = WAIT;
-       return lcore_config[slave_id].ret;
+       lcore_config[worker_id].state = WAIT;
+       return lcore_config[worker_id].ret;
 }
 
 /*
- * Check that every SLAVE lcores are in WAIT state, then call
- * rte_eal_remote_launch() for all of them. If call_master is true
- * (set to CALL_MASTER), also call the function on the master lcore.
+ * Check that every WORKER lcores are in WAIT state, then call
+ * rte_eal_remote_launch() for all of them. If call_main is true
+ * (set to CALL_MAIN), also call the function on the main lcore.
  */
 int
 rte_eal_mp_remote_launch(int (*f)(void *), void *arg,
-                        enum rte_rmt_call_master_t call_master)
+                        enum rte_rmt_call_main_t call_main)
 {
        int lcore_id;
-       int master = rte_get_master_lcore();
+       int main_lcore = rte_get_main_lcore();
 
        /* check state of lcores */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (lcore_config[lcore_id].state != WAIT)
                        return -EBUSY;
        }
 
        /* send messages to cores */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                rte_eal_remote_launch(f, arg, lcore_id);
        }
 
-       if (call_master == CALL_MASTER) {
-               lcore_config[master].ret = f(arg);
-               lcore_config[master].state = FINISHED;
+       if (call_main == CALL_MAIN) {
+               lcore_config[main_lcore].ret = f(arg);
+               lcore_config[main_lcore].state = FINISHED;
        }
 
        return 0;
 }
 
 /*
- * Return the state of the lcore identified by slave_id.
+ * Return the state of the lcore identified by worker_id.
  */
 enum rte_lcore_state_t
 rte_eal_get_lcore_state(unsigned lcore_id)
@@ -86,7 +86,7 @@ rte_eal_mp_wait_lcore(void)
 {
        unsigned lcore_id;
 
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                rte_eal_wait_lcore(lcore_id);
        }
 }
index d64569b..66d6bad 100644 (file)
@@ -18,9 +18,9 @@
 #include "eal_private.h"
 #include "eal_thread.h"
 
-unsigned int rte_get_master_lcore(void)
+unsigned int rte_get_main_lcore(void)
 {
-       return rte_eal_get_configuration()->master_lcore;
+       return rte_eal_get_configuration()->main_lcore;
 }
 
 unsigned int rte_lcore_count(void)
@@ -93,7 +93,7 @@ int rte_lcore_is_enabled(unsigned int lcore_id)
        return cfg->lcore_role[lcore_id] == ROLE_RTE;
 }
 
-unsigned int rte_get_next_lcore(unsigned int i, int skip_master, int wrap)
+unsigned int rte_get_next_lcore(unsigned int i, int skip_main, int wrap)
 {
        i++;
        if (wrap)
@@ -101,7 +101,7 @@ unsigned int rte_get_next_lcore(unsigned int i, int skip_master, int wrap)
 
        while (i < RTE_MAX_LCORE) {
                if (!rte_lcore_is_enabled(i) ||
-                   (skip_master && (i == rte_get_master_lcore()))) {
+                   (skip_main && (i == rte_get_main_lcore()))) {
                        i++;
                        if (wrap)
                                i %= RTE_MAX_LCORE;
index 60f0e4c..7b33416 100644 (file)
@@ -82,6 +82,7 @@ eal_long_options[] = {
        {OPT_TRACE_BUF_SIZE,    1, NULL, OPT_TRACE_BUF_SIZE_NUM   },
        {OPT_TRACE_MODE,        1, NULL, OPT_TRACE_MODE_NUM       },
        {OPT_MASTER_LCORE,      1, NULL, OPT_MASTER_LCORE_NUM     },
+       {OPT_MAIN_LCORE,        1, NULL, OPT_MAIN_LCORE_NUM       },
        {OPT_MBUF_POOL_OPS_NAME, 1, NULL, OPT_MBUF_POOL_OPS_NAME_NUM},
        {OPT_NO_HPET,           0, NULL, OPT_NO_HPET_NUM          },
        {OPT_NO_HUGE,           0, NULL, OPT_NO_HUGE_NUM          },
@@ -146,7 +147,7 @@ struct device_option {
 static struct device_option_list devopt_list =
 TAILQ_HEAD_INITIALIZER(devopt_list);
 
-static int master_lcore_parsed;
+static int main_lcore_parsed;
 static int mem_parsed;
 static int core_parsed;
 
@@ -579,12 +580,12 @@ eal_parse_service_coremask(const char *coremask)
                for (j = 0; j < BITS_PER_HEX && idx < RTE_MAX_LCORE;
                                j++, idx++) {
                        if ((1 << j) & val) {
-                               /* handle master lcore already parsed */
+                               /* handle main lcore already parsed */
                                uint32_t lcore = idx;
-                               if (master_lcore_parsed &&
-                                               cfg->master_lcore == lcore) {
+                               if (main_lcore_parsed &&
+                                               cfg->main_lcore == lcore) {
                                        RTE_LOG(ERR, EAL,
-                                               "lcore %u is master lcore, cannot use as service core\n",
+                                               "lcore %u is main lcore, cannot use as service core\n",
                                                idx);
                                        return -1;
                                }
@@ -752,12 +753,12 @@ eal_parse_service_corelist(const char *corelist)
                                min = idx;
                        for (idx = min; idx <= max; idx++) {
                                if (cfg->lcore_role[idx] != ROLE_SERVICE) {
-                                       /* handle master lcore already parsed */
+                                       /* handle main lcore already parsed */
                                        uint32_t lcore = idx;
-                                       if (cfg->master_lcore == lcore &&
-                                                       master_lcore_parsed) {
+                                       if (cfg->main_lcore == lcore &&
+                                                       main_lcore_parsed) {
                                                RTE_LOG(ERR, EAL,
-                                                       "Error: lcore %u is master lcore, cannot use as service core\n",
+                                                       "Error: lcore %u is main lcore, cannot use as service core\n",
                                                        idx);
                                                return -1;
                                        }
@@ -840,25 +841,25 @@ eal_parse_corelist(const char *corelist, int *cores)
        return 0;
 }
 
-/* Changes the lcore id of the master thread */
+/* Changes the lcore id of the main thread */
 static int
-eal_parse_master_lcore(const char *arg)
+eal_parse_main_lcore(const char *arg)
 {
        char *parsing_end;
        struct rte_config *cfg = rte_eal_get_configuration();
 
        errno = 0;
-       cfg->master_lcore = (uint32_t) strtol(arg, &parsing_end, 0);
+       cfg->main_lcore = (uint32_t) strtol(arg, &parsing_end, 0);
        if (errno || parsing_end[0] != 0)
                return -1;
-       if (cfg->master_lcore >= RTE_MAX_LCORE)
+       if (cfg->main_lcore >= RTE_MAX_LCORE)
                return -1;
-       master_lcore_parsed = 1;
+       main_lcore_parsed = 1;
 
-       /* ensure master core is not used as service core */
-       if (lcore_config[cfg->master_lcore].core_role == ROLE_SERVICE) {
+       /* ensure main core is not used as service core */
+       if (lcore_config[cfg->main_lcore].core_role == ROLE_SERVICE) {
                RTE_LOG(ERR, EAL,
-                       "Error: Master lcore is used as a service core\n");
+                       "Error: Main lcore is used as a service core\n");
                return -1;
        }
 
@@ -1625,9 +1626,14 @@ eal_parse_common_option(int opt, const char *optarg,
                break;
 
        case OPT_MASTER_LCORE_NUM:
-               if (eal_parse_master_lcore(optarg) < 0) {
+               fprintf(stderr,
+                       "Option --" OPT_MASTER_LCORE
+                       " is deprecated use " OPT_MAIN_LCORE "\n");
+               /* fallthrough */
+       case OPT_MAIN_LCORE_NUM:
+               if (eal_parse_main_lcore(optarg) < 0) {
                        RTE_LOG(ERR, EAL, "invalid parameter for --"
-                                       OPT_MASTER_LCORE "\n");
+                                       OPT_MAIN_LCORE "\n");
                        return -1;
                }
                break;
@@ -1802,9 +1808,9 @@ compute_ctrl_threads_cpuset(struct internal_config *internal_cfg)
 
        RTE_CPU_AND(cpuset, cpuset, &default_set);
 
-       /* if no remaining cpu, use master lcore cpu affinity */
+       /* if no remaining cpu, use main lcore cpu affinity */
        if (!CPU_COUNT(cpuset)) {
-               memcpy(cpuset, &lcore_config[rte_get_master_lcore()].cpuset,
+               memcpy(cpuset, &lcore_config[rte_get_main_lcore()].cpuset,
                        sizeof(*cpuset));
        }
 }
@@ -1836,12 +1842,12 @@ eal_adjust_config(struct internal_config *internal_cfg)
        if (internal_conf->process_type == RTE_PROC_AUTO)
                internal_conf->process_type = eal_proc_type_detect();
 
-       /* default master lcore is the first one */
-       if (!master_lcore_parsed) {
-               cfg->master_lcore = rte_get_next_lcore(-1, 0, 0);
-               if (cfg->master_lcore >= RTE_MAX_LCORE)
+       /* default main lcore is the first one */
+       if (!main_lcore_parsed) {
+               cfg->main_lcore = rte_get_next_lcore(-1, 0, 0);
+               if (cfg->main_lcore >= RTE_MAX_LCORE)
                        return -1;
-               lcore_config[cfg->master_lcore].core_role = ROLE_RTE;
+               lcore_config[cfg->main_lcore].core_role = ROLE_RTE;
        }
 
        compute_ctrl_threads_cpuset(internal_cfg);
@@ -1861,8 +1867,8 @@ eal_check_common_options(struct internal_config *internal_cfg)
        const struct internal_config *internal_conf =
                eal_get_internal_configuration();
 
-       if (cfg->lcore_role[cfg->master_lcore] != ROLE_RTE) {
-               RTE_LOG(ERR, EAL, "Master lcore is not enabled for DPDK\n");
+       if (cfg->lcore_role[cfg->main_lcore] != ROLE_RTE) {
+               RTE_LOG(ERR, EAL, "Main lcore is not enabled for DPDK\n");
                return -1;
        }
 
@@ -1986,7 +1992,7 @@ eal_common_usage(void)
               "                      '( )' can be omitted for single element group,\n"
               "                      '@' can be omitted if cpus and lcores have the same value\n"
               "  -s SERVICE COREMASK Hexadecimal bitmask of cores to be used as service cores\n"
-              "  --"OPT_MASTER_LCORE" ID   Core ID that is used as master\n"
+              "  --"OPT_MAIN_LCORE" ID     Core ID that is used as main\n"
               "  --"OPT_MBUF_POOL_OPS_NAME" Pool ops name for mbuf to use\n"
               "  -n CHANNELS         Number of memory channels\n"
               "  -m MB               Memory to allocate (see also --"OPT_SOCKET_MEM")\n"
index ef33979..aec8a17 100644 (file)
@@ -43,6 +43,8 @@ enum {
        OPT_TRACE_BUF_SIZE_NUM,
 #define OPT_TRACE_MODE        "trace-mode"
        OPT_TRACE_MODE_NUM,
+#define OPT_MAIN_LCORE        "main-lcore"
+       OPT_MAIN_LCORE_NUM,
 #define OPT_MASTER_LCORE      "master-lcore"
        OPT_MASTER_LCORE_NUM,
 #define OPT_MBUF_POOL_OPS_NAME "mbuf-pool-ops-name"
index a6a6381..4684c4c 100644 (file)
@@ -20,8 +20,8 @@
  */
 struct lcore_config {
        pthread_t thread_id;       /**< pthread identifier */
-       int pipe_master2slave[2];  /**< communication pipe with master */
-       int pipe_slave2master[2];  /**< communication pipe with master */
+       int pipe_main2worker[2];   /**< communication pipe with main */
+       int pipe_worker2main[2];   /**< communication pipe with main */
 
        lcore_function_t * volatile f; /**< function to call */
        void * volatile arg;       /**< argument of function */
@@ -42,7 +42,7 @@ extern struct lcore_config lcore_config[RTE_MAX_LCORE];
  * The global RTE configuration structure.
  */
 struct rte_config {
-       uint32_t master_lcore;       /**< Id of the master lcore */
+       uint32_t main_lcore;         /**< Id of the main lcore */
        uint32_t lcore_count;        /**< Number of available logical cores. */
        uint32_t numa_node_count;    /**< Number of detected NUMA nodes. */
        uint32_t numa_nodes[RTE_MAX_NUMA_NODES]; /**< List of detected NUMA nodes. */
index b2c5416..ce21c22 100644 (file)
@@ -122,7 +122,7 @@ struct rte_rand_state *__rte_rand_get_state(void)
        lcore_id = rte_lcore_id();
 
        if (unlikely(lcore_id == LCORE_ID_ANY))
-               lcore_id = rte_get_master_lcore();
+               lcore_id = rte_get_main_lcore();
 
        return &rand_states[lcore_id];
 }
index 98565bb..6c955d3 100644 (file)
@@ -107,7 +107,7 @@ rte_service_init(void)
        struct rte_config *cfg = rte_eal_get_configuration();
        for (i = 0; i < RTE_MAX_LCORE; i++) {
                if (lcore_config[i].core_role == ROLE_SERVICE) {
-                       if ((unsigned int)i == cfg->master_lcore)
+                       if ((unsigned int)i == cfg->main_lcore)
                                continue;
                        rte_service_lcore_add(i);
                        count++;
index ccea60a..d6ea023 100644 (file)
@@ -625,10 +625,10 @@ eal_check_mem_on_local_socket(void)
        int socket_id;
        const struct rte_config *config = rte_eal_get_configuration();
 
-       socket_id = rte_lcore_to_socket_id(config->master_lcore);
+       socket_id = rte_lcore_to_socket_id(config->main_lcore);
 
        if (rte_memseg_list_walk(check_socket, &socket_id) == 0)
-               RTE_LOG(WARNING, EAL, "WARNING: Master core has no memory on local socket!\n");
+               RTE_LOG(WARNING, EAL, "WARNING: Main core has no memory on local socket!\n");
 }
 
 
@@ -851,29 +851,29 @@ rte_eal_init(int argc, char **argv)
        eal_check_mem_on_local_socket();
 
        if (pthread_setaffinity_np(pthread_self(), sizeof(rte_cpuset_t),
-                       &lcore_config[config->master_lcore].cpuset) != 0) {
+                       &lcore_config[config->main_lcore].cpuset) != 0) {
                rte_eal_init_alert("Cannot set affinity");
                rte_errno = EINVAL;
                return -1;
        }
-       __rte_thread_init(config->master_lcore,
-               &lcore_config[config->master_lcore].cpuset);
+       __rte_thread_init(config->main_lcore,
+               &lcore_config[config->main_lcore].cpuset);
 
        ret = eal_thread_dump_current_affinity(cpuset, sizeof(cpuset));
 
-       RTE_LOG(DEBUG, EAL, "Master lcore %u is ready (tid=%p;cpuset=[%s%s])\n",
-               config->master_lcore, thread_id, cpuset,
+       RTE_LOG(DEBUG, EAL, "Main lcore %u is ready (tid=%p;cpuset=[%s%s])\n",
+               config->main_lcore, thread_id, cpuset,
                ret == 0 ? "" : "...");
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
 
                /*
-                * create communication pipes between master thread
+                * create communication pipes between main thread
                 * and children
                 */
-               if (pipe(lcore_config[i].pipe_master2slave) < 0)
+               if (pipe(lcore_config[i].pipe_main2worker) < 0)
                        rte_panic("Cannot create pipe\n");
-               if (pipe(lcore_config[i].pipe_slave2master) < 0)
+               if (pipe(lcore_config[i].pipe_worker2main) < 0)
                        rte_panic("Cannot create pipe\n");
 
                lcore_config[i].state = WAIT;
@@ -886,7 +886,7 @@ rte_eal_init(int argc, char **argv)
 
                /* Set thread_name for aid in debugging. */
                snprintf(thread_name, sizeof(thread_name),
-                               "lcore-slave-%d", i);
+                               "lcore-worker-%d", i);
                rte_thread_setname(lcore_config[i].thread_id, thread_name);
 
                ret = pthread_setaffinity_np(lcore_config[i].thread_id,
@@ -896,10 +896,10 @@ rte_eal_init(int argc, char **argv)
        }
 
        /*
-        * Launch a dummy function on all slave lcores, so that master lcore
+        * Launch a dummy function on all worker lcores, so that main lcore
         * knows they are all ready when this function returns.
         */
-       rte_eal_mp_remote_launch(sync_func, NULL, SKIP_MASTER);
+       rte_eal_mp_remote_launch(sync_func, NULL, SKIP_MAIN);
        rte_eal_mp_wait_lcore();
 
        /* initialize services so vdevs register service during bus_probe. */
index 99b5fef..1dce9b0 100644 (file)
 #include "eal_thread.h"
 
 /*
- * Send a message to a slave lcore identified by slave_id to call a
+ * Send a message to a worker lcore identified by worker_id to call a
  * function f with argument arg. Once the execution is done, the
  * remote lcore switch in FINISHED state.
  */
 int
-rte_eal_remote_launch(int (*f)(void *), void *arg, unsigned slave_id)
+rte_eal_remote_launch(int (*f)(void *), void *arg, unsigned worker_id)
 {
        int n;
        char c = 0;
-       int m2s = lcore_config[slave_id].pipe_master2slave[1];
-       int s2m = lcore_config[slave_id].pipe_slave2master[0];
+       int m2w = lcore_config[worker_id].pipe_main2worker[1];
+       int w2m = lcore_config[worker_id].pipe_worker2main[0];
        int rc = -EBUSY;
 
-       if (lcore_config[slave_id].state != WAIT)
+       if (lcore_config[worker_id].state != WAIT)
                goto finish;
 
-       lcore_config[slave_id].f = f;
-       lcore_config[slave_id].arg = arg;
+       lcore_config[worker_id].f = f;
+       lcore_config[worker_id].arg = arg;
 
        /* send message */
        n = 0;
        while (n == 0 || (n < 0 && errno == EINTR))
-               n = write(m2s, &c, 1);
+               n = write(m2w, &c, 1);
        if (n < 0)
                rte_panic("cannot write on configuration pipe\n");
 
        /* wait ack */
        do {
-               n = read(s2m, &c, 1);
+               n = read(w2m, &c, 1);
        } while (n < 0 && errno == EINTR);
 
        if (n <= 0)
@@ -62,7 +62,7 @@ rte_eal_remote_launch(int (*f)(void *), void *arg, unsigned slave_id)
 
        rc = 0;
 finish:
-       rte_eal_trace_thread_remote_launch(f, arg, slave_id, rc);
+       rte_eal_trace_thread_remote_launch(f, arg, worker_id, rc);
        return rc;
 }
 
@@ -74,21 +74,21 @@ eal_thread_loop(__rte_unused void *arg)
        int n, ret;
        unsigned lcore_id;
        pthread_t thread_id;
-       int m2s, s2m;
+       int m2w, w2m;
        char cpuset[RTE_CPU_AFFINITY_STR_LEN];
 
        thread_id = pthread_self();
 
        /* retrieve our lcore_id from the configuration structure */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (thread_id == lcore_config[lcore_id].thread_id)
                        break;
        }
        if (lcore_id == RTE_MAX_LCORE)
                rte_panic("cannot retrieve lcore id\n");
 
-       m2s = lcore_config[lcore_id].pipe_master2slave[0];
-       s2m = lcore_config[lcore_id].pipe_slave2master[1];
+       m2w = lcore_config[lcore_id].pipe_main2worker[0];
+       w2m = lcore_config[lcore_id].pipe_worker2main[1];
 
        __rte_thread_init(lcore_id, &lcore_config[lcore_id].cpuset);
 
@@ -104,7 +104,7 @@ eal_thread_loop(__rte_unused void *arg)
 
                /* wait command */
                do {
-                       n = read(m2s, &c, 1);
+                       n = read(m2w, &c, 1);
                } while (n < 0 && errno == EINTR);
 
                if (n <= 0)
@@ -115,7 +115,7 @@ eal_thread_loop(__rte_unused void *arg)
                /* send ack */
                n = 0;
                while (n == 0 || (n < 0 && errno == EINTR))
-                       n = write(s2m, &c, 1);
+                       n = write(w2m, &c, 1);
                if (n < 0)
                        rte_panic("cannot write on configuration pipe\n");
 
index e3c2ef1..0ae12cf 100644 (file)
@@ -65,11 +65,11 @@ int rte_eal_iopl_init(void);
 /**
  * Initialize the Environment Abstraction Layer (EAL).
  *
- * This function is to be executed on the MASTER lcore only, as soon
+ * This function is to be executed on the MAIN lcore only, as soon
  * as possible in the application's main() function.
  *
  * The function finishes the initialization process before main() is called.
- * It puts the SLAVE lcores in the WAIT state.
+ * It puts the WORKER lcores in the WAIT state.
  *
  * When the multi-partition feature is supported, depending on the
  * configuration (if CONFIG_RTE_EAL_MAIN_PARTITION is disabled), this
index 19df549..495ae1e 100644 (file)
@@ -264,10 +264,10 @@ RTE_TRACE_POINT(
 RTE_TRACE_POINT(
        rte_eal_trace_thread_remote_launch,
        RTE_TRACE_POINT_ARGS(int (*f)(void *), void *arg,
-               unsigned int slave_id, int rc),
+               unsigned int worker_id, int rc),
        rte_trace_point_emit_ptr(f);
        rte_trace_point_emit_ptr(arg);
-       rte_trace_point_emit_u32(slave_id);
+       rte_trace_point_emit_u32(worker_id);
        rte_trace_point_emit_int(rc);
 )
 RTE_TRACE_POINT(
index 06a6717..22a901c 100644 (file)
@@ -32,12 +32,12 @@ typedef int (lcore_function_t)(void *);
 /**
  * Launch a function on another lcore.
  *
- * To be executed on the MASTER lcore only.
+ * To be executed on the MAIN lcore only.
  *
- * Sends a message to a slave lcore (identified by the slave_id) that
+ * Sends a message to a worker lcore (identified by the worker_id) that
  * is in the WAIT state (this is true after the first call to
  * rte_eal_init()). This can be checked by first calling
- * rte_eal_wait_lcore(slave_id).
+ * rte_eal_wait_lcore(worker_id).
  *
  * When the remote lcore receives the message, it switches to
  * the RUNNING state, then calls the function f with argument arg. Once the
@@ -45,7 +45,7 @@ typedef int (lcore_function_t)(void *);
  * the return value of f is stored in a local variable to be read using
  * rte_eal_wait_lcore().
  *
- * The MASTER lcore returns as soon as the message is sent and knows
+ * The MAIN lcore returns as soon as the message is sent and knows
  * nothing about the completion of f.
  *
  * Note: This function is not designed to offer optimum
@@ -56,37 +56,41 @@ typedef int (lcore_function_t)(void *);
  *   The function to be called.
  * @param arg
  *   The argument for the function.
- * @param slave_id
+ * @param worker_id
  *   The identifier of the lcore on which the function should be executed.
  * @return
  *   - 0: Success. Execution of function f started on the remote lcore.
  *   - (-EBUSY): The remote lcore is not in a WAIT state.
  */
-int rte_eal_remote_launch(lcore_function_t *f, void *arg, unsigned slave_id);
+int rte_eal_remote_launch(lcore_function_t *f, void *arg, unsigned worker_id);
 
 /**
- * This enum indicates whether the master core must execute the handler
+ * This enum indicates whether the main core must execute the handler
  * launched on all logical cores.
  */
-enum rte_rmt_call_master_t {
-       SKIP_MASTER = 0, /**< lcore handler not executed by master core. */
-       CALL_MASTER,     /**< lcore handler executed by master core. */
+enum rte_rmt_call_main_t {
+       SKIP_MAIN = 0, /**< lcore handler not executed by main core. */
+       CALL_MAIN,     /**< lcore handler executed by main core. */
 };
 
+/* These legacy definitions will be removed in future release */
+#define SKIP_MASTER    RTE_DEPRECATED(SKIP_MASTER) SKIP_MAIN
+#define CALL_MASTER    RTE_DEPRECATED(CALL_MASTER) CALL_MAIN
+
 /**
  * Launch a function on all lcores.
  *
- * Check that each SLAVE lcore is in a WAIT state, then call
+ * Check that each WORKER lcore is in a WAIT state, then call
  * rte_eal_remote_launch() for each lcore.
  *
  * @param f
  *   The function to be called.
  * @param arg
  *   The argument for the function.
- * @param call_master
- *   If call_master set to SKIP_MASTER, the MASTER lcore does not call
- *   the function. If call_master is set to CALL_MASTER, the function
- *   is also called on master before returning. In any case, the master
+ * @param call_main
+ *   If call_main set to SKIP_MAIN, the MAIN lcore does not call
+ *   the function. If call_main is set to CALL_MAIN, the function
+ *   is also called on main before returning. In any case, the main
  *   lcore returns as soon as it finished its job and knows nothing
  *   about the completion of f on the other lcores.
  * @return
@@ -95,49 +99,49 @@ enum rte_rmt_call_master_t {
  *     case, no message is sent to any of the lcores.
  */
 int rte_eal_mp_remote_launch(lcore_function_t *f, void *arg,
-                            enum rte_rmt_call_master_t call_master);
+                            enum rte_rmt_call_main_t call_main);
 
 /**
- * Get the state of the lcore identified by slave_id.
+ * Get the state of the lcore identified by worker_id.
  *
- * To be executed on the MASTER lcore only.
+ * To be executed on the MAIN lcore only.
  *
- * @param slave_id
+ * @param worker_id
  *   The identifier of the lcore.
  * @return
  *   The state of the lcore.
  */
-enum rte_lcore_state_t rte_eal_get_lcore_state(unsigned slave_id);
+enum rte_lcore_state_t rte_eal_get_lcore_state(unsigned int worker_id);
 
 /**
  * Wait until an lcore finishes its job.
  *
- * To be executed on the MASTER lcore only.
+ * To be executed on the MAIN lcore only.
  *
- * If the slave lcore identified by the slave_id is in a FINISHED state,
+ * If the worker lcore identified by the worker_id is in a FINISHED state,
  * switch to the WAIT state. If the lcore is in RUNNING state, wait until
  * the lcore finishes its job and moves to the FINISHED state.
  *
- * @param slave_id
+ * @param worker_id
  *   The identifier of the lcore.
  * @return
- *   - 0: If the lcore identified by the slave_id is in a WAIT state.
+ *   - 0: If the lcore identified by the worker_id is in a WAIT state.
  *   - The value that was returned by the previous remote launch
- *     function call if the lcore identified by the slave_id was in a
+ *     function call if the lcore identified by the worker_id was in a
  *     FINISHED or RUNNING state. In this case, it changes the state
  *     of the lcore to WAIT.
  */
-int rte_eal_wait_lcore(unsigned slave_id);
+int rte_eal_wait_lcore(unsigned worker_id);
 
 /**
  * Wait until all lcores finish their jobs.
  *
- * To be executed on the MASTER lcore only. Issue an
+ * To be executed on the MAIN lcore only. Issue an
  * rte_eal_wait_lcore() for every lcore. The return values are
  * ignored.
  *
  * After a call to rte_eal_mp_wait_lcore(), the caller can assume
- * that all slave lcores are in a WAIT state.
+ * that all worker lcores are in a WAIT state.
  */
 void rte_eal_mp_wait_lcore(void);
 
index b8b64a6..48b87e2 100644 (file)
@@ -78,12 +78,24 @@ rte_lcore_id(void)
 }
 
 /**
- * Get the id of the master lcore
+ * Get the id of the main lcore
  *
  * @return
- *   the id of the master lcore
+ *   the id of the main lcore
  */
-unsigned int rte_get_master_lcore(void);
+unsigned int rte_get_main_lcore(void);
+
+/**
+ * Deprecated function the id of the main lcore
+ *
+ * @return
+ *   the id of the main lcore
+ */
+__rte_deprecated
+static inline unsigned int rte_get_master_lcore(void)
+{
+       return rte_get_main_lcore();
+}
 
 /**
  * Return the number of execution units (lcores) on the system.
@@ -203,32 +215,35 @@ int rte_lcore_is_enabled(unsigned int lcore_id);
  *
  * @param i
  *   The current lcore (reference).
- * @param skip_master
- *   If true, do not return the ID of the master lcore.
+ * @param skip_main
+ *   If true, do not return the ID of the main lcore.
  * @param wrap
  *   If true, go back to 0 when RTE_MAX_LCORE is reached; otherwise,
  *   return RTE_MAX_LCORE.
  * @return
  *   The next lcore_id or RTE_MAX_LCORE if not found.
  */
-unsigned int rte_get_next_lcore(unsigned int i, int skip_master, int wrap);
+unsigned int rte_get_next_lcore(unsigned int i, int skip_main, int wrap);
 
 /**
  * Macro to browse all running lcores.
  */
 #define RTE_LCORE_FOREACH(i)                                           \
        for (i = rte_get_next_lcore(-1, 0, 0);                          \
-            i<RTE_MAX_LCORE;                                           \
+            i < RTE_MAX_LCORE;                                         \
             i = rte_get_next_lcore(i, 0, 0))
 
 /**
- * Macro to browse all running lcores except the master lcore.
+ * Macro to browse all running lcores except the main lcore.
  */
-#define RTE_LCORE_FOREACH_SLAVE(i)                                     \
+#define RTE_LCORE_FOREACH_WORKER(i)                                    \
        for (i = rte_get_next_lcore(-1, 1, 0);                          \
-            i<RTE_MAX_LCORE;                                           \
+            i < RTE_MAX_LCORE;                                         \
             i = rte_get_next_lcore(i, 1, 0))
 
+#define RTE_LCORE_FOREACH_SLAVE(l)                                     \
+       RTE_DEPRECATED(RTE_LCORE_FOREACH_SLAVE) RTE_LCORE_FOREACH_WORKER(l)
+
 /**
  * Callback prototype for initializing lcores.
  *
index 9b579b8..a4161be 100644 (file)
@@ -883,10 +883,10 @@ eal_check_mem_on_local_socket(void)
        int socket_id;
        const struct rte_config *config = rte_eal_get_configuration();
 
-       socket_id = rte_lcore_to_socket_id(config->master_lcore);
+       socket_id = rte_lcore_to_socket_id(config->main_lcore);
 
        if (rte_memseg_list_walk(check_socket, &socket_id) == 0)
-               RTE_LOG(WARNING, EAL, "WARNING: Master core has no memory on local socket!\n");
+               RTE_LOG(WARNING, EAL, "WARNING: Main core has no memory on local socket!\n");
 }
 
 static int
@@ -1215,28 +1215,28 @@ rte_eal_init(int argc, char **argv)
        eal_check_mem_on_local_socket();
 
        if (pthread_setaffinity_np(pthread_self(), sizeof(rte_cpuset_t),
-                       &lcore_config[config->master_lcore].cpuset) != 0) {
+                       &lcore_config[config->main_lcore].cpuset) != 0) {
                rte_eal_init_alert("Cannot set affinity");
                rte_errno = EINVAL;
                return -1;
        }
-       __rte_thread_init(config->master_lcore,
-               &lcore_config[config->master_lcore].cpuset);
+       __rte_thread_init(config->main_lcore,
+               &lcore_config[config->main_lcore].cpuset);
 
        ret = eal_thread_dump_current_affinity(cpuset, sizeof(cpuset));
-       RTE_LOG(DEBUG, EAL, "Master lcore %u is ready (tid=%zx;cpuset=[%s%s])\n",
-               config->master_lcore, (uintptr_t)thread_id, cpuset,
+       RTE_LOG(DEBUG, EAL, "Main lcore %u is ready (tid=%zx;cpuset=[%s%s])\n",
+               config->main_lcore, (uintptr_t)thread_id, cpuset,
                ret == 0 ? "" : "...");
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
 
                /*
-                * create communication pipes between master thread
+                * create communication pipes between main thread
                 * and children
                 */
-               if (pipe(lcore_config[i].pipe_master2slave) < 0)
+               if (pipe(lcore_config[i].pipe_main2worker) < 0)
                        rte_panic("Cannot create pipe\n");
-               if (pipe(lcore_config[i].pipe_slave2master) < 0)
+               if (pipe(lcore_config[i].pipe_worker2main) < 0)
                        rte_panic("Cannot create pipe\n");
 
                lcore_config[i].state = WAIT;
@@ -1249,7 +1249,7 @@ rte_eal_init(int argc, char **argv)
 
                /* Set thread_name for aid in debugging. */
                snprintf(thread_name, sizeof(thread_name),
-                       "lcore-slave-%d", i);
+                       "lcore-worker-%d", i);
                ret = rte_thread_setname(lcore_config[i].thread_id,
                                                thread_name);
                if (ret != 0)
@@ -1263,10 +1263,10 @@ rte_eal_init(int argc, char **argv)
        }
 
        /*
-        * Launch a dummy function on all slave lcores, so that master lcore
+        * Launch a dummy function on all worker lcores, so that main lcore
         * knows they are all ready when this function returns.
         */
-       rte_eal_mp_remote_launch(sync_func, NULL, SKIP_MASTER);
+       rte_eal_mp_remote_launch(sync_func, NULL, SKIP_MAIN);
        rte_eal_mp_wait_lcore();
 
        /* initialize services so vdevs register service during bus_probe. */
index 8972529..3e47efe 100644 (file)
@@ -1737,7 +1737,7 @@ memseg_primary_init_32(void)
        /* the allocation logic is a little bit convoluted, but here's how it
         * works, in a nutshell:
         *  - if user hasn't specified on which sockets to allocate memory via
-        *    --socket-mem, we allocate all of our memory on master core socket.
+        *    --socket-mem, we allocate all of our memory on main core socket.
         *  - if user has specified sockets to allocate memory on, there may be
         *    some "unused" memory left (e.g. if user has specified --socket-mem
         *    such that not all memory adds up to 2 gigabytes), so add it to all
@@ -1751,7 +1751,7 @@ memseg_primary_init_32(void)
        for (i = 0; i < rte_socket_count(); i++) {
                int hp_sizes = (int) internal_conf->num_hugepage_sizes;
                uint64_t max_socket_mem, cur_socket_mem;
-               unsigned int master_lcore_socket;
+               unsigned int main_lcore_socket;
                struct rte_config *cfg = rte_eal_get_configuration();
                bool skip;
 
@@ -1767,10 +1767,10 @@ memseg_primary_init_32(void)
                skip = active_sockets != 0 &&
                                internal_conf->socket_mem[socket_id] == 0;
                /* ...or if we didn't specifically request memory on *any*
-                * socket, and this is not master lcore
+                * socket, and this is not main lcore
                 */
-               master_lcore_socket = rte_lcore_to_socket_id(cfg->master_lcore);
-               skip |= active_sockets == 0 && socket_id != master_lcore_socket;
+               main_lcore_socket = rte_lcore_to_socket_id(cfg->main_lcore);
+               skip |= active_sockets == 0 && socket_id != main_lcore_socket;
 
                if (skip) {
                        RTE_LOG(DEBUG, EAL, "Will not preallocate memory on socket %u\n",
index 068de25..83c2034 100644 (file)
 #include "eal_thread.h"
 
 /*
- * Send a message to a slave lcore identified by slave_id to call a
+ * Send a message to a worker lcore identified by worker_id to call a
  * function f with argument arg. Once the execution is done, the
  * remote lcore switch in FINISHED state.
  */
 int
-rte_eal_remote_launch(int (*f)(void *), void *arg, unsigned slave_id)
+rte_eal_remote_launch(int (*f)(void *), void *arg, unsigned int worker_id)
 {
        int n;
        char c = 0;
-       int m2s = lcore_config[slave_id].pipe_master2slave[1];
-       int s2m = lcore_config[slave_id].pipe_slave2master[0];
+       int m2w = lcore_config[worker_id].pipe_main2worker[1];
+       int w2m = lcore_config[worker_id].pipe_worker2main[0];
        int rc = -EBUSY;
 
-       if (lcore_config[slave_id].state != WAIT)
+       if (lcore_config[worker_id].state != WAIT)
                goto finish;
 
-       lcore_config[slave_id].f = f;
-       lcore_config[slave_id].arg = arg;
+       lcore_config[worker_id].f = f;
+       lcore_config[worker_id].arg = arg;
 
        /* send message */
        n = 0;
        while (n == 0 || (n < 0 && errno == EINTR))
-               n = write(m2s, &c, 1);
+               n = write(m2w, &c, 1);
        if (n < 0)
                rte_panic("cannot write on configuration pipe\n");
 
        /* wait ack */
        do {
-               n = read(s2m, &c, 1);
+               n = read(w2m, &c, 1);
        } while (n < 0 && errno == EINTR);
 
        if (n <= 0)
@@ -62,7 +62,7 @@ rte_eal_remote_launch(int (*f)(void *), void *arg, unsigned slave_id)
 
        rc = 0;
 finish:
-       rte_eal_trace_thread_remote_launch(f, arg, slave_id, rc);
+       rte_eal_trace_thread_remote_launch(f, arg, worker_id, rc);
        return rc;
 }
 
@@ -74,21 +74,21 @@ eal_thread_loop(__rte_unused void *arg)
        int n, ret;
        unsigned lcore_id;
        pthread_t thread_id;
-       int m2s, s2m;
+       int m2w, w2m;
        char cpuset[RTE_CPU_AFFINITY_STR_LEN];
 
        thread_id = pthread_self();
 
        /* retrieve our lcore_id from the configuration structure */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (thread_id == lcore_config[lcore_id].thread_id)
                        break;
        }
        if (lcore_id == RTE_MAX_LCORE)
                rte_panic("cannot retrieve lcore id\n");
 
-       m2s = lcore_config[lcore_id].pipe_master2slave[0];
-       s2m = lcore_config[lcore_id].pipe_slave2master[1];
+       m2w = lcore_config[lcore_id].pipe_main2worker[0];
+       w2m = lcore_config[lcore_id].pipe_worker2main[1];
 
        __rte_thread_init(lcore_id, &lcore_config[lcore_id].cpuset);
 
@@ -104,7 +104,7 @@ eal_thread_loop(__rte_unused void *arg)
 
                /* wait command */
                do {
-                       n = read(m2s, &c, 1);
+                       n = read(m2w, &c, 1);
                } while (n < 0 && errno == EINTR);
 
                if (n <= 0)
@@ -115,7 +115,7 @@ eal_thread_loop(__rte_unused void *arg)
                /* send ack */
                n = 0;
                while (n == 0 || (n < 0 && errno == EINTR))
-                       n = write(s2m, &c, 1);
+                       n = write(w2m, &c, 1);
                if (n < 0)
                        rte_panic("cannot write on configuration pipe\n");
 
index 7eab9fb..6a6be1c 100644 (file)
@@ -58,7 +58,7 @@ EXPORTS
        rte_eal_wait_lcore
        rte_exit
        rte_free
-       rte_get_master_lcore
+       rte_get_main_lcore
        rte_get_next_lcore
        rte_get_tsc_hz
        rte_hexdump
index a625ca2..c23ff57 100644 (file)
@@ -73,7 +73,7 @@ DPDK_21 {
        rte_free;
        rte_get_hpet_cycles;
        rte_get_hpet_hz;
-       rte_get_master_lcore;
+       rte_get_main_lcore;
        rte_get_next_lcore;
        rte_get_tsc_hz;
        rte_hexdump;
index 141f22a..6334aca 100644 (file)
@@ -355,8 +355,8 @@ rte_eal_init(int argc, char **argv)
                return -1;
        }
 
-       __rte_thread_init(config->master_lcore,
-               &lcore_config[config->master_lcore].cpuset);
+       __rte_thread_init(config->main_lcore,
+               &lcore_config[config->main_lcore].cpuset);
 
        bscan = rte_bus_scan();
        if (bscan < 0) {
@@ -365,16 +365,16 @@ rte_eal_init(int argc, char **argv)
                return -1;
        }
 
-       RTE_LCORE_FOREACH_SLAVE(i) {
+       RTE_LCORE_FOREACH_WORKER(i) {
 
                /*
-                * create communication pipes between master thread
+                * create communication pipes between main thread
                 * and children
                 */
-               if (_pipe(lcore_config[i].pipe_master2slave,
+               if (_pipe(lcore_config[i].pipe_main2worker,
                        sizeof(char), _O_BINARY) < 0)
                        rte_panic("Cannot create pipe\n");
-               if (_pipe(lcore_config[i].pipe_slave2master,
+               if (_pipe(lcore_config[i].pipe_worker2main,
                        sizeof(char), _O_BINARY) < 0)
                        rte_panic("Cannot create pipe\n");
 
@@ -399,10 +399,10 @@ rte_eal_init(int argc, char **argv)
        }
 
        /*
-        * Launch a dummy function on all slave lcores, so that master lcore
+        * Launch a dummy function on all worker lcores, so that main lcore
         * knows they are all ready when this function returns.
         */
-       rte_eal_mp_remote_launch(sync_func, NULL, SKIP_MASTER);
+       rte_eal_mp_remote_launch(sync_func, NULL, SKIP_MAIN);
        rte_eal_mp_wait_lcore();
        return fctret;
 }
index 20889b6..908e726 100644 (file)
 #include "eal_windows.h"
 
 /*
- * Send a message to a slave lcore identified by slave_id to call a
+ * Send a message to a worker lcore identified by worker_id to call a
  * function f with argument arg. Once the execution is done, the
  * remote lcore switch in FINISHED state.
  */
 int
-rte_eal_remote_launch(lcore_function_t *f, void *arg, unsigned int slave_id)
+rte_eal_remote_launch(lcore_function_t *f, void *arg, unsigned int worker_id)
 {
        int n;
        char c = 0;
-       int m2s = lcore_config[slave_id].pipe_master2slave[1];
-       int s2m = lcore_config[slave_id].pipe_slave2master[0];
+       int m2w = lcore_config[worker_id].pipe_main2worker[1];
+       int w2m = lcore_config[worker_id].pipe_worker2main[0];
 
-       if (lcore_config[slave_id].state != WAIT)
+       if (lcore_config[worker_id].state != WAIT)
                return -EBUSY;
 
-       lcore_config[slave_id].f = f;
-       lcore_config[slave_id].arg = arg;
+       lcore_config[worker_id].f = f;
+       lcore_config[worker_id].arg = arg;
 
        /* send message */
        n = 0;
        while (n == 0 || (n < 0 && errno == EINTR))
-               n = _write(m2s, &c, 1);
+               n = _write(m2w, &c, 1);
        if (n < 0)
                rte_panic("cannot write on configuration pipe\n");
 
        /* wait ack */
        do {
-               n = _read(s2m, &c, 1);
+               n = _read(w2m, &c, 1);
        } while (n < 0 && errno == EINTR);
 
        if (n <= 0)
@@ -61,21 +61,21 @@ eal_thread_loop(void *arg __rte_unused)
        int n, ret;
        unsigned int lcore_id;
        pthread_t thread_id;
-       int m2s, s2m;
+       int m2w, w2m;
        char cpuset[RTE_CPU_AFFINITY_STR_LEN];
 
        thread_id = pthread_self();
 
        /* retrieve our lcore_id from the configuration structure */
-       RTE_LCORE_FOREACH_SLAVE(lcore_id) {
+       RTE_LCORE_FOREACH_WORKER(lcore_id) {
                if (thread_id == lcore_config[lcore_id].thread_id)
                        break;
        }
        if (lcore_id == RTE_MAX_LCORE)
                rte_panic("cannot retrieve lcore id\n");
 
-       m2s = lcore_config[lcore_id].pipe_master2slave[0];
-       s2m = lcore_config[lcore_id].pipe_slave2master[1];
+       m2w = lcore_config[lcore_id].pipe_main2worker[0];
+       w2m = lcore_config[lcore_id].pipe_worker2main[1];
 
        __rte_thread_init(lcore_id, &lcore_config[lcore_id].cpuset);
 
@@ -88,7 +88,7 @@ eal_thread_loop(void *arg __rte_unused)
 
                /* wait command */
                do {
-                       n = _read(m2s, &c, 1);
+                       n = _read(m2w, &c, 1);
                } while (n < 0 && errno == EINTR);
 
                if (n <= 0)
@@ -99,7 +99,7 @@ eal_thread_loop(void *arg __rte_unused)
                /* send ack */
                n = 0;
                while (n == 0 || (n < 0 && errno == EINTR))
-                       n = _write(s2m, &c, 1);
+                       n = _write(w2m, &c, 1);
                if (n < 0)
                        rte_panic("cannot write on configuration pipe\n");
 
index 855facd..b0eaf46 100644 (file)
@@ -80,7 +80,7 @@ struct rte_kni_conf {
 /**
  * Initialize and preallocate KNI subsystem
  *
- * This function is to be executed on the MASTER lcore only, after EAL
+ * This function is to be executed on the main lcore only, after EAL
  * initialization and before any KNI interface is attempted to be
  * allocated
  *
index 70c07b1..975aa92 100644 (file)
@@ -452,7 +452,7 @@ rte_power_empty_poll_stat_init(struct ep_params **eptr, uint8_t *freq_tlb,
                if (get_freq_index(LOW) > total_avail_freqs[i])
                        return -1;
 
-               if (rte_get_master_lcore() != i) {
+               if (rte_get_main_lcore() != i) {
                        w->wrk_stats[i].lcore_id = i;
                        set_policy(&w->wrk_stats[i], policy);
                }