最近几天,DeepSeek爆火引发资本市场关注。1月27日美股收盘,英伟达(NASDAQ:NVDA)股价暴跌17%,收于118.58美元,市值蒸发近6000亿美元(约合4.3万亿元人民币)。 CNBC称,这是“美国公司有史以来的最大跌幅”。
不说别的,就拿跟 OpenAI-o1 对比来看,某网友让这俩分别写个脚本,要用 python 画一个红球在旋转的三角形里弹跳,结果左边 OpenAI 搞出来一坨,右边的 DeepSeek 倒是表现的相当流畅。
机器之心报道机器之心编辑部DeepSeek 20 日发布以来获得的热度至今依然没有任何消退的迹象。一觉醒来,DeepSeek 发布的 iOS 应用甚至超越了 ChatGPT 的官方应用,直接登顶 AppStore。不少网友都认为这是他们当之无愧。毕竟 ...
这两天国产大模型可真是提前过年了,DeepSeek R1 和 Kimi k1.5 同一天发布,且都放出了详实的论文报告,震惊国外 AI 社区。 DeepSeek R1 的成绩完全对标 OpenAI o1,与之前的 DeepSeek V3 相比大幅提升 ...
在预训练阶段,OLMo 2通过多种技术改进了训练稳定性,例如过滤重复的n-gram、使用更好的初始化方法、架构改进和超参数调整。这确保了模型在训练过程中不会出现崩溃或损失激增,从而提高了最终模型的性能。
(全球TMT2025年1月24日讯)Qt Group推出了实验性工具Qt AI Assistant,旨在简化跨平台用户界面(UI)开发流程,减少非编码类重复性UI开发任务,让开发者有更多时间专注于高效的代码创新。该工具支持自托管语言模型,无需依赖第三方AI服务商,可在使用Qt框架构建应用程序UI时提供建议,并自动执行编写单元测试案例、代码文档和重复性代码等手动任务。 Qt AI Assistant ...
近日,清华大学自然语言处理(NLP)实验室联合上海AILab和清华大学电子系,以及OpenBMB社区,成功提出了一种新的强化学习方法——PRIME(Process Reinforcement through Implicit ...
就能高效训练出一个数学能力超过 GPT-4o、Llama-3.1-70B的7B模型 Eurus-2-7B-PRIME。 具体而言,研究人员利用Qwen2.5-Math-7B-Base作为基座模型,训练出了新模型 ...
采用PRIME方法,研究人员不依赖任何蒸馏数据和模仿学习,仅用8张A100,花费一万块钱左右,不到10天时间,就能高效训练出一个数学能力超过 GPT-4o、Llama-3.1-70B的7B模型 Eurus-2-7B-PRIME。 具体而言,研究人员利用Qwen2.5-Math-7B-Base作为基座模型,训练出了新模型Eurus-2-7B ...
在开源模型上的检测性能 在检测Qwen2-7B [5] 、Llama-3 [6] 、Mixtral-7B [7] 和Deepseek-7B [8] 四个开源模型修改的文本时,ImBD方法在XSum、SQuAD和WritingPrompts三个数据集上的平均AUROC达到0.9550,显著优于Fast-DetectGPT的0.8261。 不同任务场景下的检测鲁棒性评估 ...