新浪新闻

谷歌杀回来了!新版Gemini跑分超o1登顶第一,CEO:这才哪到哪儿拿下7项第一,数学也和o1不分伯仲网友反应不一

微资讯

关注

谷歌杀回来了!新版Gemini跑分超o1登顶第一,CEO:这才哪到哪儿

2024-11-1513:28:32 来源:量子位

网友:说好的碰墙呢

鲨疯了!谷歌新版Gemini超越o1,强势登顶竞技场总榜第一!

在经6000+网友匿名投票后,不仅数学成绩和学霸o1相当,还拿下其它5个单项第一。

新模型名为Gemini(Exp 1114),成绩一公布,连CEO皮猜也亲自飞奔来站台。

恭喜达到这一非凡里程碑!

这下尴尬了!说好的谷歌正在遭遇瓶颈呢?没想到人家反手就是一个王炸。

怕了怕了,或许,只有OpenAI立即发布满血版o1才能与之一战了?

目前新模型可在谷歌AI Studio体验,官方后续也计划提供API。

网友们也纷纷猜测,难道这就是传说中的Gemini 2——

拿下7项第一,数学也和o1不分伯仲

一夜之间,竞技场Imsys排名再被刷新:

从总榜来看,谷歌新模型Gemini(Exp 1114)分数直涨40+,挤下了之前一直霸榜的OpenAI模型(包括o1-preview、GPT-4o)。

而且假如正面1v1遇敌,新Gemini貌似都有一半及以上概率取胜。

整体胜率热图显示,Gemini(Exp 1114)对战4o-latest胜率为50%,对战o1-preview胜率为56%,对战Claude-3.5-Sonnet胜率为62%。

  • 复杂提示(Hard Prompts):模型处理复杂或困难提示的能力;
  • 数学;
  • 创意写作;
  • 指令遵循:评估模型遵循给定指令的能力;
  • 长查询处理(Longer Query):衡量模型处理较长查询的能力;
  • 多轮对话(Multi-Turn):模型在多轮对话中保持上下文连贯性的能力;

要说最大看点,还是Gemini(Exp 1114)竟能与o1模型在数学能力上不分伯仲

要知道,据OpenAI官方说法,o1不需要专门训练,就能直接拿下数学奥赛金牌,甚至可以在博士级别的科学问答环节上超越人类专家。

不过比较遗憾的是,对于写代码这项重磅功能,Gemini(Exp 1114)虽说相较于谷歌上一版本有所改进,但仍然未能挤进前三。(o1-mini/preview仍处于领先地位)

另外,在风格控制下,Gemini-Exp-1114也和前三无缘,甚至不及自家的Gemini-1.5-pro。(排在o1、4o-latest和Sonnet之后)

解释一下,风格控制(Style Control)是竞技场今年新推出的功能,确保分数反映模型真正解决问题的能力,而不是用漂亮的格式、增加回答长度。

不过也有意外之喜,Gemini-Exp-1114这一次在视觉能力上拿下第一,超越了GPT-4o。

目前,Gemini-Exp-1114已经可以在谷歌AI Studio体验,且官方计划后续提供API。

网友反应不一

先总结一下,通过网友测试,目前可知Gemini-Exp-1114的以下信息:

  • 拥有32k上下文窗口
  • 模型回答知识截止日期为2023年4月,但回答结果会不一样
  • 加上了思维链

其中,32k上下文被大家狠狠吐槽。有人直言相比200万上下文窗口的Gemini 1.5,搁这儿不升反降呢!

兴许是感受到大家的怨怼了,谷歌AI Studio负责人赶紧出来打圆场:马上更!马上更!

透过其中一位小哥的观察,Gemini-Exp-1114这次也是用上了思维链,在回答时也能像人类一样一步步思考了。

Gemini-Exp-1114正确回答了2024美国数学奥林匹克预选赛II 1-8题。

有人问了基准测试中的物理问题,结果Gemini-Exp-1114虽然有思维链加持,却仍然回答错误。

甚至老生常谈的数字比大小和数草莓中的“r”,竟还是失败。

结果回答了claude(doge)。

但根据实测,相当一部分网友出来表示否定

毕竟,它好像连旧版1.5 Pro会的问题也无法解决。

版权所有,未经授权不得以任何形式转载及使用,违者必究。

加载中...