风台话
阿里与上交大提出 LLM 长文本计算新解法:可处理文本长达 1900k 字节、效率提升 2.4 倍
编译 | 郭 思编辑丨陈彩娴在实际应用大模型的过程中,尤其是处理长文本的上下文信息时,如何高效灵活地调度计算资源成为一个学术界与工业界共同关注的问题。大语言模型所能容纳的上下文长度直接影响了诸如 Ch ...
AI短剧公司获百度投资;苹果AI将登VisionPro,今秋或将接入谷歌Gemini;上海医院用AI自动生成病历丨AI情报局
融资快报CreativeFitting获百度PreA+轮融资:CreativeFitting井英科技)推出全球首款AI短剧APP,Reel.AI在海外市场正式发布,并迅速登上娱乐应用畅销榜,主创团队获 ...
不仅仅是「GPTs」,支付宝在做一种很新的智能体
9 月 5 日,外滩大会上,蚂蚁集团大模型应用负责人顾进杰完成了演讲,最后一页 PPT 上的唯一一句话是:让我们一起,推开智能体商业时代的大门。他在这段演讲中,透露了支付宝的一个重要动作:启动智能体生 ...
边缘人工智能提供商 Gcore 获 6000 万美元融资;马斯克开训最大 AI 集群,目标年底开发全球最强 AI丨AI情报局
今日融资快报边缘人工智能、云、网络和安全解决方案提供商Gcore获6000万美元A轮融资Gcore 的云基础设施专为边缘而构建,为边缘的 LLM 训练和人工智能应用程序的推理提供支持。融资由Warga ...
被低估的面壁:打造出不输 OpenAI 的 Scaling Law 曲线
大约 1 个月前,马斯克所创办的 xAI 团队宣布开源 Grok-1——一个参数量为 3140 亿的 MoE 大模型。从参数量来看,Grok-1 超越了 70B 的 LLaMA 2,是当前开源模型中最 ...
港大马毅:现在的大模型只有「知识」,没有「智能」
导语:知识与智能是两个概念。访谈 | 陈彩娴撰文丨马蕊蕾编辑丨陈彩娴当多数人将 Scaling Law规模定律)作为信仰并投身其中时,马毅却选择了一条少有人走的路。「模型无所谓大小,我们说正确的模型, ...
最受欢迎开源大模型,为什么是通义?
开源与闭源之争早已非新奇的话题,但毋庸置疑的是,开源极大地促进了大模型技术发展和生态繁荣。大模型被认为是最烧钱的技术,训练一个大模型往往需要大量的数据、计算资源,导致训练成本巨大,众所周知GPT-3的 ...
贾扬清一吐为快:要想赚钱,AI模型到底该大该小?
最近的AI社区,关于模型规模的讨论有些活跃。一方面,此前在大模型开发奉为“圣经”的Scaling Law,似乎正在褪去光环。去年大家还在猜测GPT-5的规模“可能会大到想不到”,现在这种讨论几乎绝迹。 ...
SCOW 首次亮相 HPC China 2022,以算网融合助力“东数西算”工程发展
12月13日,以“新算力 新赋能 新未来”为主题的2022 CCF全国高性能计算学术年会CCF HPC China 2022)在线上正式召开。作为高性能计算领域全球最具影响力的三大超算盛会之一,大会邀 ...
启明创投发布2024生成式AI十大展望
7月6日,由启明创投主办的2024世界人工智能大会WAIC)“启明创投·创业与投资论坛——超级模型、超级应用、超级机遇”在上海世博中心红厅成功举办。大语言模型、多模态模型、具身智能和生成式AI应用领域 ...
全球首发!无问芯穹发布千卡规模异构芯片混训平台,筑基面向MxN生态格局的AI Native基础设施
“打开水龙头前,我们不需要知道水是从哪条河里来的。同理,未来我们用各种AI应用时,也不会知道它调用了哪些基座模型,用到了哪种加速卡的算力——这就是最好的AI Native 基础设施。”7月4日,在20 ...
Jim Gao:曾助谷歌节能40%的AI专家,如今致力打造“虚拟工厂操作员”
只是使用了AI就让工厂能耗降低40%是的,你没有看错,就是降低了整整40%,几乎将能耗砍半!这是Jim Gao在Google大型数据中心的一次尝试。这位华人机械工程师巧妙地使用了AI系统辅助控制数据中 ...
友情链接