先做个广告:如需代注册ChatGPT或充值 GPT4.0会员(plus),请添加站长微信:gptchongzhi
推荐使用GPT中文版,国内可直接访问:https://ai.gpt86.top
模型交互的高级语音,在软Infra界,从TTFT的注意力慢慢转移到了TTFA(time-to-first-audio),除了将延迟降到人类自然交流接受的程度之外,优秀的交互体验也是重中之重。在9月3日公布的受让于OpenAI的专利US12079587中,可以看到Multi-task Transformer Model输入音频片段而生成输出transcript的方法。而提交的日期在23年4月18日,Ilya还没走,这是Whisper相关的工作也是高级语音的基础,技术开发和公开相差一年多。语音竞争也不小,Claude没有语音,Alexa计划让Claude做推理,与Google Gemma Live,OpenAI竞争。然后是提高订阅价格。将专注推理的Strawberry模型和旗舰模型Orion(没有GPT Next这个东西)。ChatGPT企业订阅已经超过100万,因此有底气提出2000美元的订阅计划,之前a16z获得快速的融资LLM知识库展示了一个很大TAM,前天Claude for Enterprise推出进一步证明。而之前提到过「猜想:UCL Eric Fraga和Abdellah Salhi的基于strawberries繁殖的进化搜索算法是OpenAI 命名Strawberry的灵感」,现在OpenAI慢慢在放出了匿名模型,结合Samsung高管泄露的高达5T(另外TSMC和Samsung合作开发HBM4 bufferless),加上Self-Play,猜测合成数据加debate对齐RLAIF+RLHF,真就和繁殖草莓一样。OpenAI需要专用的芯片来处理Sora的训练来构建世界模型,这也是对齐后期系统的奖励函数的基础。所以OpenAI的全球基建和Sora芯片一切都是为了TCO和OPEX,需要不断砸钱进去才能保持领先。前期为了训练强大的模型需要大量的资金,后期推广AI就需要高PUE成本的训练加速器和系统,覆盖PLM生命周期的方案。才过多久,Musk的Grok性能跃升部分赶上GPT-4o,背后的Black Forest Lab的模型也很惊人,最近的Reflection模型加了CoS技术,Chain of symbol推理能力不错但是其实比不上LlaMA。DeepSeek合并Coder模型、Magic LTM。这AI一天一个样,天天有新技术。市场上Kiling、Minimax,Zhipu的视频模型都很出色,但和OpenAI的物理经验生成有区别,一个是单纯的动态扩散模型,一个是世界知识模拟器,但OpenAI的期货实在太久,现在推给了纽约美术馆和少部分人体验权限。因为Apple有IP设计和出色的工程师,特别是掌握了移动入口。Apple MLX成长的非常快,MLX比如惰性求值,对MLX的Port生态也在慢慢发展,强力专注端侧小模型和隐私机密计算,这几天RWKV被office引入做端侧模型,RNN,也是SSM类的思路,MLX也Port了Rene SSM模型。所以软件层面Apple可以提供软硬融合的低功耗计算。而NVIDIA有铲子可以有GPU相关的电气设计,再结合OpenAI Poach前Google TPU组成的团队强强联合做低能耗的高性能芯片,虽然听起来确实很矛盾。未来基础设施会变得更大,更持久,更异构。NVIDIA可以在硬件上提供低功耗计算,OpenAI可以通过CUDA将LM融合的更好。高功耗NVIDIA GPU在2019年300w,2023年600w,2025年会大于1000w。限制功耗的是12VHPWR 连接器哈哈,需要有低能耗计算战略。之前提的Eliyan,在LBL OCP体验中心演示的BoW 2.0也展示了他们的原型,其中提到「具有 3 个 ASIC + 24 个 HBM 的 1 个 SiP 可以取代具有 1 个 ASIC + 6 个 HBM 的 10 个 SiP(10 个 ASIC 和 60 个 HBM)。在相同性能下,产量更高、芯片更少、能耗更低,从而实现了重大的可持续性收益」Apple关注大规模持续计算并且是一家披着硬件外衣的软件公司代表着端侧AI的未来,Tesla现在做的是大规模计算是一家披着汽车外衣的机器人公司代表着具身智能的未来。OpenAI是一家因为ImageNet起家的Scaling公司,且目前没见到Scaling law的天花板还会继续Scaling。那SSI代表的另一种路线是什么?
本文链接:https://shikelang.cc/post/1358.html
ChatGPT儿童chatgptplus使用教学怎么下载chatgpt如何正确的向chatgpt提问如何用chatgpt问问题
网友评论