杨立昆退休?中国Deepseek超Llama 4触发Meta
[昨天,人工智能领域发生了一些事情:杨立昆领导的Meta 生成式人工智能部门(Meta genai org)陷入了恐慌模式。
杨立昆是 Meta(原 Facebook)的首席人工智能科学家,同时也是纽约大学的教授。杨立昆因其在深度学习领域的开创性工作而获得了图灵奖(Turing Award),这是计算机科学领域的最高荣誉之一。
恐慌模式始于 Deepseek V3,它在性能测试中已经超过了 Llama 4。更让人尴尬的是,这是一家“不知名的中国公司,只用了 550 万美元的训练预算”。
工程师们正在疯狂地研究 Deepseek,试图从中复制一切可能的东西。我一点都没有夸张。
管理层在担心如何证明生成式人工智能组织的高额成本是合理的。当每个生成式人工智能组织的“领导”的薪水都比训练整个 Deepseek V3 的成本还要高时,他们该如何面对高层领导呢?而且我们有很多这样的“领导”。
Deepseek r1 让事情变得更可怕了。我不能透露机密信息,但这些信息很快就会公开。
这个组织本应该是一个专注于工程的小团队,但因为很多人想加入并争夺影响力,导致招聘人数被人为地扩大了,结果大家都输了。
Yann LeCun 杨立昆很快就要退休了!他认为大语言模型不会通向AGI,他大概太想做出比 Transformer(大语言模型背后的架构核心)更好的东西了,结果反而没把 Transformer 的真正潜力完全发挥出来。这可能是他这辈子犯的最大的错误。(灯下黑)
网友1:
这些投资了几十亿美元的大公司,随便哪一家都有可能在这项技术上做到最厉害。只要有一个在最前面的人悄悄放手,或者愿意分享一点点,整个领域就能重新变得强大起来。
科学家们之间的共同点比那些亿万富翁多得多。而且,那些最懂自己研究的人,也越来越明白这一点了。
网友2:
确实没有护城河。限制因素将是硬件,直到算法效率使硬件变得无关紧要,或者一些聪明的人效仿 torrents 或 seti@home 的脚步制造出分布式人工智能。
目前唯一一家拥有护城河的公司是 NVDA(也许还有拥有 TPU 的 GOOG)
网友3:
Google 的人说:昨天,DeepSeek 做的事情真的很疯狂。
不仅仅是 Meta,他们也在给 OpenAI、Google 和 Anthropic 施加压力。
这是件好事,因为我们正在看到真正的开放竞争对创新有多有效。
Google 的Full 2 思维模型会比 4 月或 5 月推出的 r2 模型更厉害!
最主要的问题是,Full 2 的价格比竞争对手便宜了 30 倍。这就是为什么 OpenAI 会让 o3 或者至少 o3 mini 免费使用。这对他们来说可能会变成一个烧钱的陷阱。
网友4:
如果你还没试过 DeepSeek R1,我强烈建议你去试试。通过观察这个模型是怎么思考的、怎么反复自我反馈,还有怎么像人类一样测试新方法,你会意识到我们离真正的通用人工智能(AGI)比你想象的要近得多。
这真的太神奇了,我感觉自己像是在和其他智慧生物一起生活在地球上,因为我真的能看到这个模型是怎么一步步想出最终答案的。
网友5:
为什么 Meta 会恐慌,他们甚至没有试图从中赚钱。只有 OpenAI 才应该恐慌!
网友6:
“没有护城河”最有趣的地方是,芯片制造商会成为大赢家。谷歌至少可以转向用他们的 TPU 来开发其他型号,或者专门为自己的平台(比如 Android)开发人工智能。Meta 怎么办?他们的人工智能已经完全开源了,现在他们只是在“烧钱”。
网友7:
跟 Deepseek R1 比起来,Gemini的快速思维模型真的差太多了,我一点都没夸张。在我非常重要的工作中,我们经常开玩笑说 Gemini 比 Deepseek 差远了,因为 Gemini 需要试 5-6 次才能做到 Deepseek 一次就能搞定的事情。差距真的太大了。
网友8:
过去几个月,我几乎每天都使用 o1 工作。我可以自信地说,在我使用它完成的任务中,R1 与 o1 非常接近,接近到我取消了 chatgpt 订阅。我同意大多数基准测试的结果,o1 仍然略胜一筹,更稳定,但 R1 紧随其后。天哪,它是免费的!
https://www.jdon.com/77177.html