搜索优化
English
全部
Copilot
图片
视频
地图
资讯
购物
更多
航班
旅游
酒店
搜索
笔记本
Top stories
Sports
U.S.
Local
World
Science
Technology
Entertainment
Business
More
Politics
过去 30 天
时间不限
过去 1 小时
过去 24 小时
过去 7 天
按相关度排序
按时间排序
腾讯网
10 天
攻防俱佳!杜伦8中6砍下16分13板5助3断 6前场板
直播吧2月1日讯 NBA常规赛,活塞117-102击败独行侠。 此役活塞中锋杜伦攻防两端表现出色,打了30分钟8投6中,罚球5中4拿到16分13篮板5助攻3抢断,正负值+14最高。 杜伦13个篮板里有6个是前场篮板。
11 天
Aurora超级计算机全球开放,模拟算力突破ExaFLOPS大关!
美国阿贡国家实验室近日宣布,其倾力打造的Aurora超级计算机已全面投入使用,并向全球科学界敞开大门。这台备受瞩目的超级计算机,自2015年首次公布以来,历经多次波折,终于迎来了它的辉煌时刻。
11 天
Aurora超级计算机全球开放,ExaFLOPS算力引领AI革命
美国阿贡国家实验室最近宣布,经过多年的研发与建设,Aurora超级计算机已全面开放,成为全球首台具备Exascale级别计算能力的超级计算机。这一令人瞩目的时刻,不仅标志着科学计算领域的技术里程碑,也为人工智能(AI)和高性能计算(HPC)注入了新的 ...
2 天
on MSN
亿咖通 ECARX AutoGPT 完成 DeepSeek-R1 模型深度适配
IT之家 2 月 8 日消息,亿咖通科技今日宣布,自家发布的车载 AI 大模型应用 ECARX AutoGPT 已在计算平台上完成了 DeepSeek-R1 模型的快速部署及深度适配。 IT之家从官方介绍获悉,目前亿咖通科技已与微软 ...
11 天
on MSN
Aurora 超级计算机向全球科学界开放,模拟计算能力超 1 FP64 ExaFLOPS
IT之家 1 月 30 日消息,据 Tom's Hardware 今日报道,美国阿贡国家实验室宣布,其 Aurora 超级计算机现已全面投入使用,并正式向全球科学界开放。Aurora 早在 2015 年就已公布,但因多次延迟才终于完成。它能够提供超过 1 FP64 ExaFLOPS 的模拟计算能力 ,并能为人工智能和机器学习提供 11.6 混合精度 ExaFLOPS 的性能。
1 天
DeepSeek-R1推理本地跑,7GB GPU体验啊哈时刻?GRPO内存暴降,GitHub超2万星
相比之下,标准的Llama 3.2(10亿参数模型) 需要50GB显存,但在尝试额外分配2GB显存时,会发生OOM(内存溢出)错误。更令人惊讶的是,即使在配备48GB显存的A40 GPU上,标准Llama也会直接崩溃。
BBRTV北部湾在线
2 天
Mỹ: Tất cả 10 người trên máy bay bị mất liên lạc ở bang Alaska đều ...
Theo thông tin mới nhất của Lực lượng bảo vệ bờ biển Mỹ, vào ngày 7/2 (giờ địa phương), 10 người trên máy bay bị mất liên lạc ở bang Alaska đều đã thiệt mạng.
腾讯网
23 小时
DeepSeek 刷新 AI 格局;50 美元模型蒸馏术;大模型爬虫暗战丨AI 月报
DeepSeek 走红,让 “蒸馏” 成为大模型行业 1 月的讨论热点——不乏有研究人员怀疑,DeepSeek “蒸馏” 了 OpenAI 的领先模型,才有那么强的效果,截至目前还没有人拿出来证据。
2 天
on MSN
亿咖通ECARX AutoGPT实现DeepSeek-R1模型深度适配,加速车载AI本地化进程
亿咖通科技近日宣布,其车载AI大模型应用ECARX AutoGPT在计算平台上成功实现了DeepSeek-R1模型的快速部署与深度整合。这一进展标志着亿咖通科技在车载AI技术方面取得了重要突破。
5 天
全球顶尖AI科学家许主洪加盟阿里巴巴,担任阿里集团副总裁负责AI To ...
2月6日消息,钛媒体AGI获悉, 全球顶尖人工智能科学家许主洪教授(Steven Hoi)正式加入阿里巴巴,出任阿里集团副总裁,负责AI To C业务的多模态基础模型及Agents相关基础研究与应用解决方案。
IT之家
28 天
英伟达发布 6.3 万亿 Token 大型 AI 训练数据库 Nemotron-CC
IT之家1 月 13 日消息,据英伟达官方博客,英伟达宣布推出一款名为 Nemotron-CC 的大型英文 AI 训练数据库,总计包含 6.3 万亿个 Token,其中 1.9 万亿为合成数据。英伟达声称该训练数据库可以帮助为学术界和企业界进一步推动大语言模型的训练过程。 目前 ...
一些您可能无法访问的结果已被隐去。
显示无法访问的结果
反馈