Inuti AI-körtiden: PyTorch, C++, CUDA och mer därtill
Förstå PyTorch-körtiden, från C++ och CUDA-internaler till TorchScript och AI-genererade körtider som VibeTensor, för högpresterande AI.
Förstå PyTorch-körtiden, från C++ och CUDA-internaler till TorchScript och AI-genererade körtider som VibeTensor, för högpresterande AI.
Upptäck de viktigaste lagren av AI-observabilitet för att göra LLM:er och agenter tillförlitliga, säkra, kostnadseffektiva och kompatibla i verklig produktion.
Förstå stora språkmodeller från tokens till transformatorer, kvantisering och lokal exekvering, förklarat på tydlig och praktisk engelska.
Maia 200 är Microsofts nya egenutvecklade AI-chip för snabb och effektiv inferens i Azure, som konkurrerar med Trainium och TPU med över 10 PFLOPS FP4-kraft.
Lär dig hur förstärkningsinlärning fungerar, dess algoritmer, användningsområden, risker och hur man implementerar förstärkningsinlärning i verkliga projekt steg för steg.
Upptäck hur AI-modellkollaps påverkar generativa designverktyg, varför syntetisk data är riskabelt och vilka strategier som kan förhindra långsiktig försämring.
Upptäck hur man använder Python för AI: bibliotek, exempel, verktyg och verkliga tillämpningar förklarade tydligt och djupgående.
Upptäck varför AI-hallucinationer uppstår, verkliga exempel, deras risker och de bästa aktuella teknikerna för att upptäcka och minska dem.
Upptäck de viktigaste plattformarna med öppen källkod och företagsmodeller för att utvärdera, övervaka och styra moderna språkmodeller och LLM-agenter.