The AI Podcast (NVIDIA)
Lowering the Cost of Intelligence With NVIDIA's Ian Buck - Ep. 284
Dec 29, 2025
· 38m
Discover how mixture‑of‑experts (MoE) architecture is enabling smarter AI models without a proportional increase in the required compute and cost. Using vivid analogies and real-world examples, NVIDIA’s Ian Buck breaks down MoE models, their hidden complexities, and why extreme co-design across compute, networking, and software is essential to realizing their full potential. Learn more: https://blogs.nvidia.com/blog/mixture-of-experts-frontier-models/
Bu bölüm henüz transliterasyonu yapılmadı.
Bu bölümü yapay zeka ile yazmak için STT.ai kullanın. Konuşanı tespit ederek doğru metni alın, zaman damgaları ve çoklu formatlarda ihraç edin.
Hoparlör tespiti
Sözcük seviyesi zaman damgaları
SRT, TXT, JSON olarak ihraç et