1、OpenAI降价95%,用API自己造插件;
【资料图】
2、AMD发布AI芯片 MI300X,仍无法挑战英伟达CUDA壁垒;
3、微软推出医学大模型LLaVA-Med ,能够推测患者病理情况;
4、Windows10到2025年后将永久停止使用;
5、阿联酋打造的大模型持续霸榜Hugging Face;
1、OpenAI大降价!开放函数调用功能,让开发者操作更便捷
OpenAI官网宣布“更新更可调的API模型、函数调用功能(Function calling)、更长的上下文和更低的价格”,发布更高效更低成本的版本。
降价方面:不同版本降价幅度不同,OpenAI最先进、用户最多的嵌入模型Text-embedding-ada-002降价75%;用户最多的聊天模型gpt-3.5-turbo降价25%。此外,OpenAI还推出了gpt4-16k平替版——gpt-3.5-turbo-16k,价格为每输入1000 tokens 0.003美元,相当于降价95%!
最值得关注的是:函数调用功能;开发者现在可以向gpt-4-0613和gpt-3.5-turbo-0613两个模型描述函数,并让模型智能地选择输出一个包含参数的JSON(JavaScript Object Notation,一种数据交换的文本格式)对象来调用这些函数。若将GPT功能与外部工具或API进行连接,这种方法更加可靠。
见智点评:
函数调用功能最大程度帮助开发者更轻松地构建调用外部工具、将自然语言转换为外部 API 调用或进行数据库查询的聊天机器人。
底层逻辑是:允许开发者更可靠地从模型中获取结构化数据,能够很大程度提高程序的可读性,能够提升代码的组织效率;
例如调用外部工具提供回答、从文本中提取数据化结构等。这样很大程度降低了操作门槛,极大的优化了效率,同时还能够更大程度发挥模型的功能。
函数调用能够将复杂程序分解为更小的部分,同时更加便于管理和使用。另外在测试上面也更便捷和高效,在方便调用的同时更有助于提高整体运行的质量。
从降价角度来看,Sam Altman兑现了承诺,并且远远超过市场预期。另外,由于 OpenAI 不断更新其模型,旧版本将不会永久存在。公司还宣布开始淘汰一些早期版本的这些模型,包括 gpt-3.5-turbo-0301 和 gpt-4-0314将在9月13日之后停止使用。
2、AMD发布AI芯片 MI300X,仍无法挑战英伟达CUDA壁垒
AMD宣布即将推出迄今为止最先进的人工智能GPU MI300X芯片,并可以使用高达192GB的内存的HBM3高带宽内存来加速大型语言模型和生成式AI计算。
AMD主要客户将在第三季度开始试用MI300X,第四季度开始全面生产。另一种型号Instinct MI300A现在正在向客户发售。
除了AI芯片外,AMD还推出专为云计算和超大规模用户设计的全新EPYC服务器处理器,代号为Bergamo,每个插槽最多包含128个内核,并针对各种容器化工作负载进行了优化。
见智点评:
MI300X一定程度能够成为AI芯片市场很受欢迎的产品,当下英伟达AI芯片供应仍旧处于非常紧缺的状态,openAI等多家企业也纷纷想要申请购买更多的芯片满足日渐增长的数据中心访问量,但是订单排期已经陆续延到年底。
虽然MI300X还不足以完全替代GH200,但在内存容量方面已经比英伟达GH100更大,且在节能方面MI300X表现比GH200更出色,但是对于价格方面目前还没有定论,市场预估成本可能会高于H100。
另外,见智认为英伟达CUDA GPU 在许多计算密集型任务中比 AMD GPU 更快,包括 GPU 的设计和更高效的编译器优化的可用性,AMD仍无法挑战英伟达CUDA壁垒。AMD正在努力提高其MI300X GPU的性能,并为其平台提供更好的支持。但AMD是否能够缩小与NVIDIA的差距还有待观察。
3、微软推出医学大模型LLaVA-Med,能够推测患者病理情况
微软研究人员展示了 LLaVA-Med 模型,该模型主要用于生物医学方面的研究,可根据 CT、X 光图片等推测出患者的病理状况。
据悉,微软研究人员与一批医院合作,获得了使用生物医学图像文本对应大型数据集来训练多模态 AI 模型。该数据集包括胸部 X 光、MRI、组织学、病理学和 CT 图像等,覆盖范围相对全面。
微软使用 GPT-4,基于 Vision Transformer 和 Vicuna 语言模型,在八个英伟达 A100 GPU 上对 LLaVA-Med 进行训练,其中包含“每个图像的所有预分析信息”,用于生成有关图像的问答,以满足“可自然语言回答有关生物医学图像问题”的助手愿景。
在学习过程中,模型主要围绕“描述此类图像的内容”以及“阐述生物医学概念”而展开。据微软称,该模型最终具有“出色的多模式对话能力”、“在用于回答视觉问题的三个标准生物医学数据集上,LLaVA-Med 在部分指标上领先于业界其他先进模型”。
见智点评:
医学大模型LLaVA-Med已经被证明对图像问题的回答能够达到90%的准确率,是一个非常有前景的专用大模型工具,未来很有可能彻底改变研究人员和生物医学数据交互的方式,同时还能够优化医疗诊断的流程,成为为医生提供更具专业度和可信度的诊断的AI助手。
当然,任何大模型都还有需要提供的空间,比较这款大模型就会出现虚假举例和推理不佳的问题,研究团队也表示未来会侧重于提高模型的质量和可靠性,有朝一日可以应用于商业生物医学。
4、Windows10将在2025年后永久停止使用
微软已宣布正式停止支持Windows10 21H2版本,这意味着仍在运行该版本的用户将被强制升级至22H2版本。虽然Windows 11仍然可以选择升级,但只适用于支持该系统的硬件。
除了21H2版,微软还停止支持了Windows10 20H2版本和第二代SurfaceBook。据悉,Windows10 22H2版本将是最后一个Windows10版本,支持也将于2025年10月结束。目前,Windows 10处于“维护模式”,只接收每月的累积更新。1月份,微软已停止Windows10数字版的下载和售卖,集中精力开发Windows 11,并预计在2024年推出“Windows 12”。
5、阿联酋打造的大模型持续霸榜Hugging Face
近日,阿联酋科技创新研究所(TII)打造出的400亿参数的语言模型Falcon-40B,在Hugging Face 的OpenLLM排行榜上依旧排名第一,并持续霸榜,赢过此前LLaMA、StableLM和RedPajama等竞争者。
Falcon-40B模型利用将近5亿个Token、并使用384颗GPU进行了2个月的训练。为提高训练过程的质量,团队成员还自己组建了一套工作流程来筛选出“最高质量的的语料”供该模型进行训练。经过多个基准测试后,表现比LLaMA、Vicuna和Alpaca更加出色。
见智点评:
Falcon背后的研发方为阿联酋的阿布扎比技术创新研究所(TII),这是中东首个世界顶级的大模型产品。团队采用了“多重查询注意力”机制来提高模型的效率。其中,“多重查询注意力”机制即模型可以对每个token进行多个查询,来更好表示同一序列中不同token之间的关系,从而在加速模型运算效率的同时,降低模型的复杂性,进一步提高模型整体的可维护性。
标签:
X 关闭
X 关闭