雅虎香港 搜尋

搜尋結果

  1. 2024年4月18日 · 92 个回答. 默认排序. Trisimo崔思莫. Anthropic粉/A Radical Futurist. 谢邀 @OpenLLMAI. 去年,Google说,我们没有护城河,OpenAI也没有。 现在Google最先进的模型是Gemini 1.5 Pro,直接Llama-3 70B干到了。 每年闭源模型的护城河可能都要被扎克伯格抽干一次, 今天发布的Llama-3 70B,和Gemini 1.5 Pro,Cohere CMD R+,Claude Sonnet,老版GPT-4差不多处于同样的分界线。 (等lmsys排行榜) 400B+已经蓄势待发,挑战Opus和GPT-4四月版,这大概就是Dario 所说的1亿美金级±的模型。 气氛看起来很焦灼。 Qwen,Cohere暂时没有货,

  2. 2024年4月21日 · 通义千问. 如何评价通义千问放出110B模型的在线demo? 通义千问1.5-110B(通义千问1.5-110B-对话是阿里云研发的通义千问大模型系列1100亿参数规模的模型) 能力是否能匹敌GPT4或Llama… 显示全部 . 关注者. 54. 被浏览. 15,937. 20 个回答. Trisimo崔思莫. Anthropic粉/A Radical Futurist. 挺好的,知识面很丰富,幻觉抑制做得很好, 看起来像是一个匹配问答和写作的模型。 写作本身就是Qwen的强项,国际级水准。 推理性能并不强,如果你想做一些理科推理,这并不是好的选择。 道德枷锁很明显,几乎是所有模型中夹得最紧的,所以,你想问一些风俗娘的问题,它是不会告诉你的。

  3. 164 个回答. 默认排序. 张俊林. 2023 年度新知答主. 338 人赞同了该回答. LLAMA-3 的发布是大模型开源届的大事,蹭下热度,在这里谈下有关LLAMA-3、大模型开源与闭源以及合成数据的一些个人看法。 一.LLAMA-3的基本情况: -模型结构与LLAMA-2相比没有大的变动,主要变化一点在于Token词典从LLAMA-2的32K拓展到了128K,以增加编码效率;另外一点是引入了 Grouped Query Attention (GQA) ,这可以减少推理过程中的 KV缓存 大小,增加推理效率;还有一点是输入上下文长度从4K拓展到了8K,这个长度相比竞品来说仍然有点短。

  4. 2024年4月28日 · 1,254 个回答. 看完整的视频,她是提了一堆要求,没人上台,干站在那半天,然后说了那番话。. 一个老女人给自己挽尊的败者宣言而已,何必那么放在心上?. 江西老表上一次睁眼看世界,那还是南昌起义吧?. 壮士何慷慨,志欲威八荒。. 不仅为江西高彩礼现象 ...

  5. 2024年4月27日 · 知乎网友讨论山西运城问界M7车祸真相,车门锁死、车辆起火,三人不幸遇难,车企回应已成立专项小组。

  6. 2024年5月2日 · 战马名场面「阿水是绝对核心」这句话的后面还补充了一句,「希望 Jackeylove 不要给自己太大压力」。. 这件事情其实很有趣,有期电台的嘉宾是 Karsa,他将 Jackeylove 标记为最印象深刻(类似定义)的队友。. 在他眼中,Jackeylove 是可以凝聚全队的灵魂选手,所谓 ...

  7. 2024年4月28日 · 1.本质上讲,他们根本不爱国,他们只不过想借着爱国的名义做平时不敢做的坏事,而群体中又极其容易失去理智(乌合之众这书真常读常新)。. 他们本质就是一群流氓和暴徒. 2.他们的目的也和爱国没有半毛钱关系,主要是让自己爽。. 首先如果自己能有现实的 ...