Commmonn Ground

Tech & AI

NVIDIA GTC 2026: AI-industrin har just skiftat från träning till handling

Jensen Huang klev precis ut på SAP Center-scenen i San Jose för att hålla vad som kan vara den mest betydelsefulla keynote-presentationen i NVIDIA:s historia. Inte på grund av ett enskilt chip-avslöjande — utan för att GTC 2026 är ögonblicket då AI-industrin formellt skiftar från att bygga modeller till att distribuera dem.

Trettiotusen människor från 190 länder fyllde centrala San Jose. Keynoten var en fullstack-deklaration: nytt kisel, ny mjukvara, ny fysik, ny ekonomi. Här är vad som faktiskt spelar roll och varför.

Vera Rubin: 10x billigare inference förändrar allt

Mittpunkten i GTC 2026 är Vera Rubin — NVIDIA:s efterföljare till Blackwell-arkitekturen som dominerade 2024-2025. Uppkallad efter astronomen som bevisade existensen av mörk materia, är det en plattform med sex chip: Rubin GPU, Vera CPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU och Spectrum-6 Ethernet Switch.

Huvudsiffrorna är häpnadsväckande:

  • 10x minskning av inference-tokenkostnad jämfört med Blackwell
  • 4x färre GPU:er krävs för att träna Mixture-of-Experts-modeller
  • 50 petaflops NVFP4-beräkning per GPU för inference
  • 288GB HBM4-minne med 3.0+ TB/s bandbredd per enhet
  • 260 TB/s rack-bandbredd — mer än hela internet

Den tiofaldiga minskningen av inference-kostnaden är siffran som skriver om affärsplaner. Applikationer som tidigare var för dyra att köra kontinuerligt — ständigt aktiva AI-agenter, videobehandling i realtid, kontinuerlig kodgranskning — blir ekonomiskt livskraftiga över en natt. Detta är inte en inkrementell förbättring. Det är ett språng som kommer att sprida sig genom molnleverantörernas prissättning under de kommande 18 månaderna.

Vera Rubin är i full produktion. AWS, Google Cloud, Microsoft Azure och Oracle kommer att rulla ut Rubin-baserade instanser under andra halvåret 2026. Microsofts nästa generations "Fairwater AI superfactories" kommer att skalas till hundratusentals Vera Rubin Superchips. De största namnen inom AI — OpenAI, Anthropic, Meta, xAI — har alla förpliktat sig.

NemoClaw: NVIDIA går in i mjukvarulagret för agenter

Hårdvaran var bara förrätten. Det mer strategiskt betydelsefulla tillkännagivandet är NemoClaw — en open source-plattform för att bygga och distribuera AI-agenter för företag.

Detta är NVIDIA som gör samma drag som gjorde CUDA till en 20-årig vallgrav: ge utvecklare gratis, djupt integrerade verktyg, gör det till den enklaste vägen, och ta betalt när arbetsbelastningen skalas upp på NVIDIA-hårdvara. NemoClaw låter företag bygga autonoma agenter som interagerar med filer, appar och arbetsflöden lokalt — utan beroende av molnet.

GTC-deltagare kunde bygga sin egen ständigt aktiva AI-assistent vid "Build-a-Claw"-stationer runt om i mässcentret. Namnge den, definiera dess personlighet, ge den tillgång till verktyg och distribuera den på en DGX Spark eller GeForce RTX-laptop direkt på plats. Det är ett smart drag — tusentals utvecklare går därifrån med fungerande agenter på NVIDIA-hårdvara.

Tillsammans med NemoClaw lanserade NVIDIA Nemotron 3 Super — en öppen modell med 120 miljarder parametrar men endast 12 miljarder aktiva parametrar, specialbyggd för agentic workloads. Den har ett kontextfönster på 1 miljon tokens — tillräckligt för att en agent ska kunna hålla en hel kodbas eller veckor av konversationshistorik i minnet utan att tappa tråden.

Modellen är redan distribuerad hos Perplexity, Google Cloud, Oracle, AWS, CoreWeave och dussintals inference-leverantörer. Företag som Palantir, Siemens och Cadence anpassar den för företagsautomation.

Fysisk AI: Från chatbotar till robotar

GTC 2026 cementerade "Fysisk AI" som NVIDIA:s nästa biljon-dollar-tes. Konferensen innehöll robotik-sessioner från Tesla, Disney, Agility Robotics, KUKA, Universal Robots och Waabi. Disney visade till och med upp AI-drivna humanoida robotar som balanserar själva med hjälp av förstärkningsinlärning (reinforcement learning) tränad i NVIDIA:s Omniverse-simulering.

Arkitekturen med "tre datorer" berättar historien: en dator tränar hjärnan (DGX), en simulerar världen (Omniverse) och en körs på roboten (Jetson/IGX). Specialistrobotar lär sig atomära färdigheter — att greppa, balansera, navigera — och kombinerar dem över tid till sammansatta förmågor. Det speglar hur barn lär sig: specialist först, generalist senare.

Thinking Machines Lab tillkännagav en utrullning av Vera Rubin-system i gigawatt-skala. Det är inte ett forskningslabb — det är ett industriellt åtagande för fysisk AI-infrastruktur.

Groq-faktorn och Feynman-teasen

Ytterligare två signaler från GTC förtjänar uppmärksamhet.

För det första, Groq-integrationen. NVIDIA licensierade Groqs dataflödesarkitektur förra året för rapporterade 20 miljarder dollar. Groqs teknik genererar tokens med extrem hastighet — tusentals per sekund — vilket gör den idealisk för AI-agenter i realtid. GTC hinteade om inference-produkter som inkluderar Groq-teknik, men konkreta detaljer är fortfarande knappa. Innebörden: NVIDIA bygger en skiktad inference-stack snarare än att behandla varje arbetsbelastning som ett rent GPU-problem.

För det andra teasade Jensen om chip "världen aldrig sett förut." Den starkaste kandidaten är Feynman — arkitekturgenerationen efter Rubin, potentiellt byggd på TSMC:s 1,6nm-process med kisel-fotonik. Om detta bekräftas vid framtida evenemang skulle det förlänga NVIDIA:s roadmap-synlighet till tre generationer — en oöverträffad signal om att företaget avser att springa ifrån hyperscalers egna specialanpassade kisel i många år framöver.

Vad detta faktiskt betyder

GTC 2026 är inte ett GPU-lanseringsevent maskerat som en konferens. Det är en deklaration om att AI-industrin har skiftat från "träning" till "handling."

Inference-eran är här. Modeller blir billigare att köra. Agenter får ramverk för att agera autonomt. Robotar får fysikmotorer att lära sig av. Och NVIDIA positionerar sig som fullstack-leverantören för allt detta — från atomen till applikationen.

För utvecklare: inference-ekonomin kommer att leda till billigare API-priser vid mitten av 2027. Planera för applikationer som kör AI kontinuerligt, inte bara vid behov.

För investerare: det nya mätvärdet är inte FLOPS per dollar — det är tokens per megawatt. Företag som kontrollerar inference-stacken kommer att ackumulera värde.

För alla andra: den AI du interagerar med dagligen kommer snart att bli betydligt snabbare, billigare och mer kapabel. Infrastrukturen som tillkännagavs idag kommer att driva produkterna du använder 2027.

Vanliga frågor

Vad är NVIDIA Vera Rubin?

Vera Rubin är NVIDIA:s nästa generations AI-beräkningsplattform, efterföljaren till Blackwell. Den innehåller sex nya chip — inklusive Rubin GPU och Vera CPU — och levererar upp till 10x lägre inference-tokenkostnader och kräver 4x färre GPU:er för träning. Rubin-baserade produkter levereras under andra halvåret 2026 från alla stora molnleverantörer.

Vad är NemoClaw?

NemoClaw är NVIDIA:s open source-plattform för att bygga AI-agenter för företag — autonoma system som utför uppgifter i flera steg utan konstant mänsklig övervakning. Den är utformad för att fördjupa CUDA-ekosystemet genom att göra NVIDIA-hårdvara till standardvalet för agentic AI-arbetsbelastningar.

När är NVIDIA GTC 2026 keynote?

Jensen Huangs keynote hölls måndagen den 16 mars 2026 klockan 11:00 PT (02:00 den 17 mars, Hong Kong-tid) på SAP Center i San Jose. Hela reprisen finns tillgänglig gratis på nvidia.com och YouTube.