a16z Podcast
a16z Podcast

What's Missing Between LLMs and AGI - Vishal Misra & Martin Casado

Mar 17, 2026 · 47m

<p>Vishal Misra returns to explain his latest research on how LLMs actually work under the hood. He walks through experiments showing that transformers update their predictions in a precise, mathematically predictable way as they process new information, explains why this still doesn't mean they're conscious, and describes what's actually required for AGI: the ability to keep learning after training and the move from pattern matching to understanding cause and effect.</p> <p> </p> <p>Resources:</p> <p>Follow Vishal Misra on X: <a href="https://x.com/vishalmisra" …

ភាគ​នេះ​មិន​ទាន់​បាន​បម្លែង​ទេ

ប្រើ STT.ai ដើម្បី សរសេរ ឡើងវិញ រឿង នេះ ជាមួយ AI. ទទួលបាន អត្ថបទ ត្រឹមត្រូវ ជាមួយ ការ រក ឃើញ អ្នក និយាយ, ត្រា ពេលវេលា និង នាំ ចេញ ក្នុង ទ្រង់ទ្រាយ ច្រើន.

ការ​រក​ឃើញ​អ្នក​និយាយ ត្រា​ពេលវេលា​កម្រិត​ពាក្យ នាំចេញ​ជា SRT, TXT, JSON

ភាគ​ច្រើន