谷歌Gemini 1.5迎来重磅升级,成本效率大幅提升!
就在OpenAI宣布其《Her》全面开放的同一天,谷歌旗下的Gemini系列迎来了一个重大的版本更新——Gemini 1.5。
这次升级不仅让模型的成本降低了一半,而且在速度上也有了显著提升:速率限制提高了2到3倍,输出速度翻了一番,同时延迟被压缩到了原来的三分之一。现在,开发者可以通过Google AI Studio和Gemini API免费体验这些改进。然而,聊天版的Gemini还需耐心等待一段时间。
值得注意的是,尽管新版本在数学处理方面展现出了卓越的能力,但与o1-mini以及完整的o1相比(准确率为94.8%),它仍有进步空间。
谷歌Gemini 1.5的重大革新
此次更新带来了两款新模型:Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002,它们的主要改进包括:
对于Pro型号,当输入输出都小于128K时,价格削减超过一半;速率限制提升了2至3倍;输出速度加倍,而响应时间缩短为原来的三分之一;默认过滤器设置得到了优化。性能方面,Gemini 1.5在数学问题、长文本处理及多模态内容上表现得更为出色。尤其在MMLU-Pro测试中,成绩提升了约7%,而在MATH与HiddenMath测试中,两种新模型均有约20%的进步,其中Pro版以86.5%的正确率超过了o1-preview的85.5%。
此外,在视觉理解和代码生成领域,Gemini 1.5同样取得了2%-7%的增长。开发者们还注意到,新模型采用了更加精简的设计,旨在提高易用性并进一步控制成本。
针对摘要生成、问答系统等应用场景,新版模型的输出长度平均减少了5%-20%。从经济角度看,Pro版的输入token费用降低了64%,输出token费用下降了52%,增量缓存token的价格也下调了64%,所有这些调整将于10月1日生效。
速率方面,付费用户将享受到更高的速率限制,比如1.5 Flash从每分钟1000次请求增加到2000次,而1.5 Pro则从360次跃升至1000次。
另外,新模型提供了可选的过滤器功能,默认情况下不会启用,赋予用户更多灵活性。
值得一提的是,Gemini 1.5 Flash-8B实验版本也在文本处理和多模态能力上实现了显著突破。
网友们的初步反馈
一些热情的网友们已经开始尝试新的Gemini 1.5 Flash模型,并分享了他们的体验。
一位用户报告说,该模型能在大约一分钟内完成长达13分钟音频文件的转录工作,且准确率接近完美,特别是在声音清晰的情况下。
另一位网友对模型的视觉理解能力进行了检验,发现它能够顺利完成先前许多视觉模型所未能解决的任务。
虽然数学技能的增强受到了广泛关注,但也有人指出,在实际应用中面对复杂问题时,Gemini 1.5可能仍难以匹敌o1系列。
无论如何,谷歌通过这次升级无疑向竞争对手发出了挑战信号,激励着OpenAI加快步伐,推出更强有力的产品来保持其领先地位。