Nvidia e regele chipurilor AI. Dar AI-ul tocmai i-a crescut concurenții
Nvidia domină piața semiconductorilor pentru inteligență artificială cu o cotă de peste 80%. Ironia e că exact tehnologia pe care a ajutat-o să existe ar putea fi cea care îi subminează monopolul.
Există o glumă veche în industria semiconductorilor: dacă vrei să faci un miliard de dolari din cipuri, trebuie să începi cu două miliarde. Proiectarea unui procesor de la zero e un proces atât de scump, atât de complex și atât de lung, încât doar câteva companii din lume și-l permit. E ca și cum ai vrea să construiești o catedrală gotică, dar fiecare cărămidă costă un milion de dolari și trebuie pusă cu o precizie de câțiva nanometri. Nvidia, compania care a transformat plăcile video de gaming într-un imperiu de inteligență artificială, a înțeles asta mai bine decât oricine. Și a profitat enorm.
Dar iată ironia delicioasă a momentului: exact tehnologia pe care Nvidia a hrănit-o, antrenat-o și monetizat-o, inteligența artificială, începe acum să facă proiectarea de cipuri mai ieftină, mai rapidă și mai accesibilă. Adică exact genul de democratizare care amenință monopolurile. Nvidia a construit armele cu care proprii concurenți învață acum să tragă. Și dacă asta nu e o lecție de capitalism care se mușcă de coadă, nu știu ce e.
Cum a ajuns Nvidia să fie regele pe care nimeni nu-l poate detroniza (încă)
Să punem lucrurile în perspectivă. Nvidia controlează, conform estimărilor din 2025-2026, între 80% și 90% din piața globală de cipuri pentru antrenarea modelelor AI. Nu 80% dintr-o piață mică, ci 80% dintr-o piață care valorează peste 100 de miliarde de dolari anual și crește cu o viteză care face și investitorii de pe Wall Street să transpire. GPU-urile Nvidia, seria H100, apoi H200, apoi Blackwell, au devenit echivalentul aurului în era digitală. Companiile se bat pe ele. Țările fac strategii naționale ca să le obțină. Arabia Saudită a cumpărat zeci de mii de unități. Și Jensen Huang, CEO-ul Nvidia, a devenit un fel de rock star tech care poartă jachete de piele și prezintă cipuri ca pe albume noi.
Dominanța Nvidia vine din trei lucruri: hardware excepțional, un ecosistem software (CUDA) care e aproape imposibil de replicat și un avans de peste un deceniu în optimizarea pentru calcul paralel. Când ai construit un ecosistem în care milioane de dezvoltatori scriu cod, în care toate framework-urile de machine learning sunt optimizate pentru platforma ta, în care fiecare universitate și fiecare laborator de cercetare folosește produsele tale, ai creat un șanț de apărare pe care concurenții nu-l pot trece pur și simplu făcând un cip mai bun. E ca și cum ai vrea să concurezi cu Windows în anii 2000: nu era suficient să ai un sistem de operare mai bun. Trebuia să ai și toate aplicațiile, toți driverii, toți producătorii de hardware de partea ta.
Și totuși. Și totuși, ceva se mișcă. Și acel ceva e chiar inteligența artificială.
AI-ul care proiectează cipuri: când copilul își depășește părintele
Proiectarea unui cip modern e, în esență, o problemă de optimizare de o complexitate absurdă. Un procesor are miliarde de tranzistori, fiecare trebuie plasat, conectat și verificat. Procesul tradițional implică echipe de sute sau mii de ingineri, luni sau ani de muncă și bugete de sute de milioane de dolari. Doar etapa de verificare, în care te asiguri că cipul face ce trebuie și nu se aprinde, poate dura mai mult decât proiectarea propriu-zisă. E ca și cum ai scrie un roman de un milion de pagini și apoi l-ai verifica literă cu literă, de trei ori.
Aici intervine AI-ul. Modelele de inteligență artificială, în special cele bazate pe reinforcement learning și pe modele generative, se dovedesc remarcabil de bune la exact acest tip de probleme. Google a demonstrat încă din 2021 că un model AI poate proiecta layout-uri de cipuri în câteva ore, nu în câteva luni. De atunci, lucrurile s-au accelerat. Anthropic, OpenAI, dar și companii mai mici de EDA (Electronic Design Automation) precum Synopsys și Cadence au integrat AI-ul profund în fluxurile de proiectare. Când un model AI poate proiecta un cip în câteva săptămâni, monopolul nu mai e o chestiune de geniu, ci de viteză.
Și nu vorbim doar de optimizări marginale. Vorbim de reduceri de 30-50% în timpul de proiectare, de cipuri care consumă mai puțină energie pentru aceeași performanță, de arhitecturi noi pe care un inginer uman nu le-ar fi conceput pentru că sunt contra-intuitive. AI-ul nu proiectează cipuri „mai bine" decât oamenii în sensul în care un pictor e mai bun decât altul. Le proiectează altfel, explorând un spațiu de soluții pe care creierul uman pur și simplu nu-l poate parcurge.
Asta înseamnă că bariera de intrare pe piața semiconductorilor, care până acum era un zid de beton armat de 10 miliarde de dolari, începe să se fisureze. Nu se prăbușește, să fim serioși. Dar se fisurează suficient cât să lase loc unor jucători noi.
Cine sunt rebelii care vor tronul lui Nvidia
Lista e mai lungă decât te-ai aștepta. AMD, rivalul etern, a recuperat teren serios cu seria MI300 și investește masiv în software-ul ROCm, alternativa sa la CUDA. Intel, care a ratat complet trenul AI inițial, încearcă o revenire disperată cu seria Gaudi, deși rezultatele sunt, să zicem, modeste. Dar cei mai interesanți concurenți nu sunt giganții tradiționali. Sunt startup-urile și companiile de cloud care și-au spus: dacă AI-ul poate proiecta cipuri, de ce nu ne proiectăm propriile cipuri?
Amazon a dezvoltat Trainium și Inferentia, cipuri custom pentru platforma sa AWS. Google are TPU-urile (Tensor Processing Units) care sunt deja la generația a șasea. Microsoft lucrează la propriul cip AI, Maia. Meta a anunțat MTIA. Fiecare dintre aceste companii cheltuiește zeci de miliarde de dolari pe infrastructură AI și fiecare a ajuns la aceeași concluzie: dependența de un singur furnizor e o vulnerabilitate strategică. E ca și cum ai avea o singură sursă de apă într-un oraș. Funcționează perfect, până când nu mai funcționează.
Dar revoluția reală vine de jos. Startup-uri precum Cerebras, Groq, Tenstorrent (condus de legendarul Jim Keller, omul care a proiectat cipuri pentru Apple, AMD și Tesla) și SambaNova atacă problema din unghiuri complet diferite. Cerebras a construit un cip cât o farfurie de masă, literalmente. Groq a creat un procesor care face inferență la viteze absurde. Tenstorrent lucrează pe arhitecturi open-source bazate pe RISC-V. Și toate aceste companii beneficiază de AI în procesul lor de proiectare, ceea ce le permite să itereze mai rapid și mai ieftin decât ar fi fost posibil acum cinci ani.
Chiar și în lumea open-source se întâmplă lucruri. Mișcarea RISC-V, o arhitectură de procesor liberă și gratuită, câștigă teren constant. China investește masiv în RISC-V, parțial din necesitate (sancțiunile americane au tăiat accesul la tehnologiile occidentale), parțial din strategie. Și când combini o arhitectură liberă cu instrumente de proiectare alimentate de AI, obții o rețetă care ar fi sunat ca science fiction acum un deceniu: cipuri competitive proiectate de echipe mici, în timp scurt, cu bugete rezonabile.
Ce treabă are România cu semiconductorii (mai multă decât crezi)
Aici e momentul în care ridic mâna și spun: stați, că povestea asta ne privește direct. România nu fabrică cipuri. Nu avem foundry-uri, nu avem fab-uri, nu avem nimic din lanțul de producție fizică. Dar avem ceva ce puțini menționează: ingineri de proiectare. Și nu puțini. România produce oameni care proiectează cipuri pentru alții. Întrebarea e când începem să proiectăm pentru noi.
Conform datelor Eurostat din 2025, România avea aproximativ 12.000 de specialiști în proiectare hardware și embedded systems. Nu toți lucrează pe semiconductori, dar o parte semnificativă da. Companii precum NXP Semiconductors, Infineon, Microchip Technology și Continental au centre de proiectare în București, Timișoara și Cluj. Acolo, ingineri români proiectează module pentru automobile, senzori, microcontrolere. E muncă de înaltă calificare, plătită decent (între 3.000 și 7.000 de euro net lunar, conform datelor de pe piață), dar care rămâne, în esență, outsourcing. Proiectăm componentele din mașina altuia.
„România are un avantaj competitiv real în proiectarea de cipuri, dar nu-l exploatează strategic", spunea într-un interviu recent profesorul Adrian Munteanu de la Universitatea Politehnica din București, coordonatorul programului de microelectronică. „Avem absolvenți care pleacă la NXP sau Infineon și fac treabă excelentă. Dar nu avem niciun startup românesc de semiconductori. Niciun fond de investiții care să finanțeze așa ceva. Și asta nu e o problemă de talent, e o problemă de ecosistem." Munteanu are dreptate. Talentul există. Infrastructura financiară și instituțională, nu.
Iar democratizarea proiectării de cipuri prin AI ar putea schimba ecuația. Dacă o echipă de 20 de ingineri cu instrumente AI poate face ce făcea înainte o echipă de 200, atunci un startup din Cluj sau Iași ar putea, teoretic, să proiecteze un cip specializat pentru o nișă specifică: agricultură de precizie, monitorizare industrială, IoT pentru rețele energetice. Nu vorbim de a concura cu Nvidia pe piața GPU-urilor de miliarde de dolari. Vorbim de a ocupa nișe pe care giganții nu le consideră suficient de profitabile. E diferența dintre a construi un portavion și a construi o barcă de pescuit foarte, foarte deșteaptă.
CUDA: lanțul de aur pe care nimeni nu-l poate rupe (deocamdată)
Orice discuție despre detronarea Nvidia trebuie să treacă prin CUDA. Pentru cei neinițiați: CUDA e platforma software a Nvidia care permite programatorilor să folosească GPU-urile pentru calcule generale, nu doar pentru grafică. A fost lansată în 2006, când nimeni nu înțelegea de ce ai vrea să faci matematică pe o placă video. Douăzeci de ani mai târziu, CUDA e limba franca a AI-ului. PyTorch, TensorFlow, JAX, toate rulează pe CUDA. Milioane de linii de cod, mii de biblioteci, zeci de mii de tutoriale. E un ecosistem imens, autoperpetuant, aproape imposibil de replicat.
Și totuși, Silicon Valley recunoaște deja că dependența de un singur ecosistem e o problemă. AMD investește sute de milioane în ROCm. Intel pune bani în oneAPI. Iar proiecte open-source precum Triton (dezvoltat inițial de OpenAI) și MLIR (de la Google) încearcă să creeze un strat de abstractizare care să facă hardware-ul interschimbabil. Ideea e simplă: dacă poți scrie cod o singură dată și să ruleze pe orice cip, puterea CUDA dispare. E ca și cum ai face o aplicație care merge și pe Android, și pe iOS, și pe orice altceva. Nvidia nu mai e indispensabilă.
Problema e că „simplu" în teorie și „simplu" în practică sunt două lucruri foarte diferite. CUDA are 20 de ani de optimizări, de bugfix-uri, de documentație. Alternativele au jumătate din funcționalitate și de trei ori mai multe bug-uri. Dar direcția e clară. Și AI-ul ajută și aici: modele de limbaj care pot traduce automat cod CUDA în alte framework-uri, care pot optimiza kernel-uri pentru hardware-uri diferite, care pot genera cod de la zero pentru arhitecturi noi. E un cerc virtuos (sau vicios, depinde din perspectiva cui privești): AI-ul face cipuri noi posibile, cipurile noi fac AI-ul mai bun, AI-ul mai bun face cipuri și mai noi.
Cristian Dima, CTO al unui startup de AI din București care preferă să rămână nedenumit (industria e mică și toată lumea se cunoaște), mi-a spus recent: „Am migrat 40% din inferența noastră de pe Nvidia pe AMD în ultimele șase luni. Nu pentru că AMD e mai bun. E mai ieftin cu 35% și, cu Triton, diferența de performanță a scăzut sub 10%. Pentru o companie ca a noastră, asta înseamnă că putem servi cu 30% mai mulți clienți cu același buget." Când întrebi de ce nu a făcut asta acum doi ani, răspunde simplu: „Nu se putea. Software-ul nu exista."
Democratizare sau doar o nouă oligarhie cu mai mulți membri?
Să fim onești: cuvântul „democratizare" e folosit în tech cam la fel cum e folosit „revoluționar" pe cutiile de cereale. Adică des și fără prea multă substanță. Faptul că AI-ul face proiectarea de cipuri mai accesibilă nu înseamnă că mâine oricine poate fabrica un procesor. Fabricarea propriu-zisă rămâne concentrată în mâinile a câtorva companii: TSMC în Taiwan (care produce peste 90% din cipurile avansate ale lumii), Samsung în Coreea de Sud și, cu mult efort, Intel în SUA. Poți proiecta cel mai genial cip din univers pe laptopul tău din Craiova, dar dacă TSMC nu-ți dă un slot de producție, cipul tău rămâne un fișier PDF foarte frumos.
Și totuși, chiar și cu aceste limitări, schimbarea e reală. Proiectarea era, până acum, prima barieră. Cea mai scumpă, cea mai consumatoare de timp, cea mai dependentă de talent rar și costisitor. Dacă AI-ul coboară acea barieră, mai rămâne fabricația. Și fabricația, deși concentrată, are capacitate. TSMC construiește fabrici noi în Arizona și Japonia. Samsung extinde în Texas. Intel investește 100 de miliarde de dolari în fabrici noi. Capacitatea de producție crește. Ceea ce lipsea erau clienții cu design-uri gata de fabricat. AI-ul ar putea genera exact acei clienți.
Dar să nu ne amăgim. Democratizarea în tech a mai fost promisă. Internetul urma să democratizeze informația, și a făcut-o, dar a creat și Google și Facebook. Smartphone-urile urmau să democratizeze accesul la tehnologie, și au făcut-o, dar au creat și Apple cu o capitalizare de 3 trilioane de dolari. Există un pattern: fiecare val de democratizare creează noi monopoluri. Întrebarea nu e dacă piața cipurilor AI se va diversifica. Se va diversifica. Întrebarea e dacă diversificarea va dura suficient înainte ca un nou gigant să consolideze totul din nou.
Ce urmează: scenarii pentru următorii cinci ani
Scenariul optimist: AI-ul reduce costul proiectării unui cip specializat de la sute de milioane la câteva milioane de dolari. O explozie de startup-uri de semiconductori apare la nivel global, inclusiv în țări care până acum erau excluse din joc. România, cu baza sa de ingineri și costurile relativ scăzute, devine un hub de proiectare. Cipuri specializate pentru nișe specifice inundă piața. Nvidia rămâne un jucător mare, dar cota sa scade la 50-60%, iar prețurile GPU-urilor scad semnificativ. Toată lumea câștigă, mai puțin acționarii Nvidia.
Scenariul realist: AI-ul ajută, dar nu transformă radical piața în cinci ani. Marile companii de cloud (Amazon, Google, Microsoft, Meta) își dezvoltă cipuri proprii și reduc dependența de Nvidia cu 20-30%. AMD câștigă teren pe segmentul de inferență. Câteva startup-uri reușesc, cele mai multe eșuează. CUDA rămâne dominant, dar alternativele devin viabile. România continuă să fie un centru de outsourcing pentru proiectare, cu poate unul sau două startup-uri locale care primesc finanțare europeană prin programul European Chips Act. E mai bine decât acum, dar nu e revoluție.
Scenariul pesimist: Nvidia folosește AI-ul mai bine decât oricine altcineva pentru a-și accelera propriul ciclu de proiectare, menținându-și avansul. CUDA rămâne de neatins. Companiile de cloud își abandonează proiectele de cipuri custom când realizează că e mai ieftin să cumpere de la Nvidia decât să întrețină echipe interne de sute de ingineri. Monopolul se consolidează. Jensen Huang își cumpără o insulă. Și programatorii români continuă să optimizeze kernel-uri CUDA pentru companii din Bay Area, de la distanță, pe un salariu care acoperă chiria în Floreasca dar nu și un credit ipotecar.
Realitatea va fi, probabil, undeva între primele două scenarii. Nvidia e prea bună și prea bine poziționată ca să fie detronată rapid. Dar monopolurile în tech nu durează veșnic. IBM a dominat mainframe-urile. Microsoft a dominat PC-urile. Nokia a dominat telefoanele. Fiecare a fost detronat nu de un concurent direct, ci de o schimbare de paradigmă pe care nu a anticipat-o. Iar AI-ul care proiectează cipuri ar putea fi exact acea schimbare de paradigmă. Sau nu. Dar cel puțin acum, pentru prima dată în mult timp, promisiunea de schimbare pare mai mult decât un slide de PowerPoint la o conferință din San Francisco.
Între timp, Jensen Huang continuă să poarte jachete de piele și să prezinte cipuri noi cu entuziasmul unui predicator evanghelic. Iar eu continui să explic de ce ar trebui să vă pese. Nu pentru că Nvidia e bună sau rea. Ci pentru că într-o lume în care totul, de la mașini la frigidere la tractoare, va avea un cip AI înăuntru, cine proiectează acele cipuri și cât costă să le proiectezi e o întrebare care ne afectează pe toți. Chiar și pe cei care nu știu ce e un tranzistor. Mai ales pe ei.
inspired by: AI Could Democratize One ... »
Jurnalistă tech cu fascinație genuină pentru inovație și o doză sănătoasă de scepticism. Transformă jargonul Silicon Valley în povești pentru oameni normali.
Ai putea citi și
90 de milioane de oameni fără internet: cum arată o țară deconectată de la lume
Iranul trăiește cel mai lung blackout total de internet din istoria sa recentă, iar combinația dintre cenzura de stat și distrugerile fizice de infrastructură face ca nimeni să nu știe cu adevărat cât va dura.
AI-ul E Mai Creativ Decât Tine
Un studiu pe 100.000 de oameni arată că inteligența artificială bate omul de rând la creativitate. Dar înainte să intri în panică, citește litera mică.
Anthropic refuză să ucidă pentru Pentagon. Acum plătește prețul.
Cea mai safety-conscious companie AI din lume a ajuns pe lista neagră a Departamentului Apărării. Și asta ridică o întrebare pe care nimeni nu vrea să o pună cu voce tare.