Știri

OpenAI intră în jocul procesoarelor: un cip propriu pentru era post-Nvidia

OpenAI, compania din spatele ChatGPT, a confirmat oficial ceea ce în cercurile tehnice globale se știa deja de luni bune: dezvoltă un procesor propriu dedicat inteligenței artificiale, în parteneriat cu Broadcom. Livrările ar urma să înceapă în 2025, semnalând o nouă etapă în strategia de autonomie hardware a gigantului american.

De ce acum?

Cererea pentru putere de calcul în domeniul AI a crescut exponențial. LLM-urile (Large Language Models), modelele de viziune multimodală și inferența la scară industrială necesită infrastructură hardware dedicată, iar dependența de Nvidia a devenit critică.

OpenAI, care a utilizat până acum GPU-uri Nvidia H100 pentru antrenarea și rularea modelelor sale, a ajuns la limita sustenabilității: prețuri tot mai mari, disponibilitate limitată și control slab asupra lanțului de aprovizionare.

Intrarea pe piața chip-urilor proprii este astfel un pas strategic, nu doar tehnologic. Mai ales că Google are TPU, Amazon are Inferentia și Trainium, iar Meta a început dezvoltarea propriei linii de ASIC-uri (Application-Specific Integrated Circuits).

Broadcom: partenerul „misterios” cu comenzi de 10 miliarde $

Anunțul nu a fost făcut direct de OpenAI, ci indirect, prin Broadcom. CEO-ul Hock Tan a vorbit recent despre un client important care s-a angajat la comenzi de 10 miliarde de dolari pentru dezvoltarea unui nou cip de AI.

Deși numele OpenAI nu a fost rostit, surse din industrie au confirmat pentru Financial Times că este vorba exact despre colaborarea pentru noul accelerator.

Reacția pieței a fost imediată: acțiunile Broadcom au crescut cu 15% într-o singură zi, iar compania a depășit o capitalizare de 1.700 miliarde de dolari, devenind unul dintre cei mai valoroși jucători din industria semiconductorilor.

Ce va face cipul OpenAI?

Deși nu avem încă specificații oficiale, direcția e clară: cipul va fi optimizat pentru antrenarea și inferența modelelor de AI, probabil într-o arhitectură ASIC custom, cu accent pe latență scăzută și consum energetic redus.

Sunt așteptate două direcții de dezvoltare:

  • o versiune high-performance, destinată centrelor de date proprii ale OpenAI (sau ale Microsoft);

  • o versiune low-power sau eficientizată pentru inferență rapidă, dedicată produselor comerciale (ChatGPT Team, API etc.)

Este foarte probabil ca cipul să vină cu un stack software complet nou, paralel cu CUDA/Nvidia, și să integreze optimizări direct pentru modelul GPT.

O schimbare de paradigmă: autonomia verticală

Ce face acum OpenAI face parte dintr-o tendință mai largă. Marii jucători din AI realizează că:

  1. Nvidia nu poate livra suficient.

  2. Costul pe TFLOP este prea mare.

  3. Optimizările reale cer control total asupra hardware-ului.

Google a înțeles asta din 2016. Amazon, la fel. Meta vine din urmă. Iar acum, OpenAI își consolidează poziția nu doar ca furnizor de modele, ci ca ecosistem complet AI, cu modele, infrastructură, API-uri, interfețe grafice și, din 2025, și hardware dedicat.

Este o formă de integrare verticală în stil Apple: dacă vrei performanță reală și costuri controlate, nu mai poți depinde de terți.

Implicațiile pentru Nvidia

Deși Nvidia rămâne lider absolut în domeniul AI, această mișcare semnalează începutul fragmentării hegemoniei. Cu cât mai mulți jucători adoptă propriile procesoare, cu atât mai puțină presiune va exista pe ecosistemul Nvidia.

Pe termen scurt, cererea nu va scădea. Dar pe termen mediu (2025–2027), Nvidia se va confrunta cu o diversificare periculoasă: software portat pe alte arhitecturi, optimizări dedicate, și chiar pierderea unor clienți mari (OpenAI, Meta, Anthropic etc.).

România și restul lumii: ce contează pentru noi?

Pentru utilizatorul final, această mișcare înseamnă:

  • posibilă ieftinire a accesului la AI, pe măsură ce costurile de infrastructură scad;

  • timp de răspuns mai bun în aplicații precum ChatGPT;

  • diversificare a ecosistemelor AI, cu mai puțină dependență de monopoluri hardware.

Pentru companiile din Europa de Est, aceste schimbări deschid și alte oportunități:

  • acces mai larg la inferență locală;

  • interfațare cu modele open-source portate pe hardware non-Nvidia;

  • colaborări potențiale cu jucători noi în ecosistemul AI global.

Decizia OpenAI de a dezvolta propriul cip este un pas logic, dar monumental. Nu doar din perspectiva tehnică, ci ca schimbare de strategie: de la partener și client Nvidia, la dezvoltator de ecosistem propriu.

Începe o nouă etapă în cursa AI: nu doar cine are cel mai bun model, ci cine are infrastructura completă, de la siliciu până la interfața cu utilizatorul.

Back to list

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *