楊立昆談人工智慧的下一步:為什麼只放大 LLM 不夠
這集整理 Meta 首席 AI 科學家楊立昆對人工智慧下一步的看法。重點不是哪一個模型跑分更高,而是大型語言模型目前還缺什麼,以及 AI 如果要更接近真正理解世界,可能需要哪些能力。 影片連結:https://www.youtube.com/watch?v=mcbEP9b2bI0 為什麼楊立昆的觀點值得看 楊立昆是深度學習領域的重要人物,也曾獲得圖靈獎。他對 AI 的看法常常和市場熱門方向不完全相同,尤其是他對「只靠放大大型語言模型」這件事保持懷疑。 這個觀點值得整理,因為它提醒我們:AI 的未來不一定只是更多參數、更長上下文、更快生成文字。 LLM 的限制在哪裡 大型語言模型很擅長處理文字和模式,但它不一定真的理解物理世界。人類知道杯子會掉下來、車子需要煞車距離、物體不能穿牆,這些常識來自我們和世界互動的經驗。 如果 AI 要能協助機器人、自動駕駛、科學模擬或複雜決策,就不能只會預測下一個字。它需要更強的世界模型、推理能力與規劃能力。 推理與規劃會變得更重要 未來的 AI 不只是回答問題,而是能先理解目標,再拆解步驟、預測結果、避免錯誤,最後才執行。 這對工具使用者也有啟發:當我們使用 AI,不要只把它當成「更會聊天的搜尋引擎」,而是可以開始思考如何設計工作流,讓 AI 參與規劃、檢查和迭代。 開源 AI 的價值 楊立昆長期支持開源 AI。原因不只是免費,而是開源可以讓不同地區、不同語言、不同文化的人參與模型發展。 如果 AI 只掌握在少數公司手上,模型的價值觀、語言能力、資料偏好和產品方向都可能變得單一。開源讓更多人可以檢查、調整和延伸模型,這對整個生態比較健康。 小結 這集最重要的提醒是:AI 的下一步不一定只是把 LLM 做得更大。真正困難的問題可能是讓 AI 更理解世界、更會推理、更能規劃,也更能被不同社群共同塑造。