线程池

线程池(Thread Pool)是多线程编程中的一种重要技术,它通过重复利用一组已创建的线程来执行多个任务,避免了频繁创建和销毁线程的开销。使用线程池带来以下几个主要好处:


1. 提高性能,降低资源消耗

  • 线程的创建和销毁是有成本的,尤其是在高并发场景下频繁创建线程会影响系统性能。
  • 线程池通过复用已有线程,避免了频繁创建和销毁,显著提升执行效率。

2. 更好的资源管理和控制

  • 可以通过线程池限制并发线程的数量,防止系统因创建过多线程而导致内存溢出或系统崩溃。
  • 比如:通过固定大小的线程池限制最大并发数。

3. 任务调度更加灵活

  • 线程池一般支持任务队列(如阻塞队列),可以将任务排队等待执行,实现任务的有序调度。
  • 可支持定时任务、周期性任务等扩展功能。

4. 增强系统的稳定性和可维护性

  • 统一线程的创建、销毁和调度,代码更清晰、结构更可控。
  • 对于出现的异常线程或任务失败,可以集中处理,提高系统健壮性。

5. 提高响应速度

  • 某些任务到达时,无需等待新线程的创建,线程池中已有线程可以直接处理,提高响应速度。

6. 便于进行监控和调优

  • 大多数线程池实现提供了任务队列长度、线程存活数、执行任务数等指标,便于监控与分析。
  • 可以动态调整线程池大小,以适应不同负载。


使用 C++11 实现的简单线程池类 ThreadPool

#include <iostream>
#include <vector>
#include <queue>
#include <thread>
#include <mutex>
#include <condition_variable>
#include <future>
#include <functional>
#include <atomic>

class ThreadPool {
public:
    ThreadPool(size_t threads);
    ~ThreadPool();

    // 提交任务,返回 future
    template<class F, class... Args>
    auto enqueue(F&& f, Args&&... args)
        -> std::future<typename std::invoke_result<F, Args...>::type>;

private:
    std::vector<std::thread> workers;
    std::queue<std::function<void()>> tasks;

    std::mutex queue_mutex;
    std::condition_variable condition;
    std::atomic<bool> stop;
};

// 构造函数
ThreadPool::ThreadPool(size_t threads) : stop(false) {
    for (size_t i = 0; i < threads; ++i) {
        workers.emplace_back([this] {
            while (!stop) {
                std::function<void()> task;
                {
                    std::unique_lock<std::mutex> lock(this->queue_mutex);
                    this->condition.wait(lock, [this] {
                        return this->stop || !this->tasks.empty();
                    });
                    if (this->stop && this->tasks.empty())
                        return;
                    task = std::move(this->tasks.front());
                    this->tasks.pop();
                }
                task();
            }
        });
    }
}

// 提交任务
template<class F, class... Args>
auto ThreadPool::enqueue(F&& f, Args&&... args)
    -> std::future<typename std::invoke_result<F, Args...>::type>
{
    using return_type = typename std::invoke_result<F, Args...>::type;

    auto task = std::make_shared<std::packaged_task<return_type()>>(
        std::bind(std::forward<F>(f), std::forward<Args>(args)...)
    );

    std::future<return_type> res = task->get_future();
    {
        std::unique_lock<std::mutex> lock(queue_mutex);
        if (stop)
            throw std::runtime_error("enqueue on stopped ThreadPool");

        tasks.emplace([task]() { (*task)(); });
    }
    condition.notify_one();
    return res;
}

// 析构函数
ThreadPool::~ThreadPool() {
    stop = true;
    condition.notify_all();
    for (std::thread &worker : workers)
        worker.join();
}

使用例子:

#include <chrono>

int main() {
    ThreadPool pool(4); // 创建4个线程的线程池

    std::vector<std::future<int>> results;

    for (int i = 0; i < 8; ++i) {
        results.emplace_back(
            pool.enqueue([i] {
                std::this_thread::sleep_for(std::chrono::milliseconds(100));
                std::cout << "Task " << i << " done.\n";
                return i * i;
            })
        );
    }

    for (auto&& result : results)
        std::cout << "Result: " << result.get() << '\n';

    return 0;
}

发表评论