线程池

我们大家都知道,在处理多线程服务并发时,由于创建线程需要占用很多的系统资源,所以为了避免这些不必要的损耗,通常我们采用线程池来解决这些问题。

  线程池的基本原理是,首先创建并保持一定数量的线程,当需要使用线程时,我们从池中取得线程,再将需要运行的任务交给线程进行处理,当任务完成后再将其释放回池中


线程池:

先看一个例子
package thread;

import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;

public class TestService {

/**
* @param args
*/
public static void main(String[] args) {
// TODO Auto-generated method stub
ExecutorService es=Executors.newFixedThreadPool(2);
for(int i=0;i<100;i++){
Runnable r=new Runnable(){
public void run(){
long time=(long)(Math.random()*1000);
System.out.println("休眠"+time+"ms");
try{
Thread.sleep(time);
}catch(InterruptedException ee){

}
}
};
es.execute(r);
}
es.shutdown();
}

}


执行结果;

休眠861ms
休眠65ms
休眠356ms
休眠347ms
休眠556ms
休眠6ms
休眠565ms
休眠368ms
休眠842ms
休眠546ms
休眠178ms
休眠64ms
休眠479ms
休眠851ms
休眠153ms
休眠219ms
休眠820ms
休眠618ms
休眠558ms
休眠444ms
休眠447ms
休眠326ms
休眠124ms
休眠298ms
休眠886ms
休眠801ms
休眠657ms

以上是2个大小的线程池来处理100个线程。需要注意的是,线程池必须使用shutdown来显式关闭,否则会造成主线程无法退出。shutdown也不会阻塞主线程。

但是有一个问题:在for循环的过程中,会等待线程池有空闲的线程,所以主线程会阻塞,为了解决这个问题,一般启动一的线程来做for循环,就是避免由于线程池满会造成主线程阻塞,代码如下:

package thread;

import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;

public class TestService extends Thread{

public void run(){
ExecutorService es=Executors.newFixedThreadPool(2);
for(int i=0;i<100;i++){
Runnable r=new Runnable(){
public void run(){
long time=(long)(Math.random()*1000);
System.out.println("休眠"+time+"ms");
try{
Thread.sleep(time);
}catch(InterruptedException ee){

}
}
};
es.execute(r);
}
es.shutdown();
}
/**
* @param args
*/
public static void main(String[] args) {
// TODO Auto-generated method stub
new TestService().start();
}

}
内容概要:《中文大模型基准测评2025年上半年报告》由SuperCLUE团队发布,详细评估了2025年上半年中文大模型的发展状况。报告涵盖了大模型的关键进展、国内外大模型全景图及差距、专项测评基准介绍等。通过SuperCLUE基准,对45个国内外代表性大模型进行了六大任务(数学推理、科学推理、代码生成、智能体Agent、精确指令遵循、幻觉控制)的综合测评。结果显示,海外模型如o3、o4-mini(high)在推理任务上表现突出,而国内模型如Doubao-Seed-1.6-thinking-250715在智能体Agent和幻觉控制任务上表现出色。此外,报告还分析了模型性价比、效能区间分布,并对代表性模型如Doubao-Seed-1.6-thinking-250715、DeepSeek-R1-0528、GLM-4.5等进行了详细介绍。整体来看,国内大模型在特定任务上已接近国际顶尖水平,但在综合推理能力上仍有提升空间。 适用人群:对大模型技术感兴趣的科研人员、工程师、产品经理及投资者。 使用场景及目标:①了解2025年上半年中文大模型的发展现状与趋势;②评估国内外大模型在不同任务上的表现差异;③为技术选型和性能优化提供参考依据。 其他说明:报告提供了详细的测评方法、评分标准及结果分析,确保评估的科学性和公正性。此外,SuperCLUE团队还发布了多个专项测评基准,涵盖多模态、文本、推理等多个领域,为业界提供全面的测评服务。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值