Wired 10 min lectură

Anthropic refuză să ucidă pentru Pentagon. Acum plătește prețul.

Cea mai safety-conscious companie AI din lume a ajuns pe lista neagră a Departamentului Apărării. Și asta ridică o întrebare pe care nimeni nu vrea să o pună cu voce tare.


cristi.dev | | 10 min lectură | vizualizări
A humanoid robot made of circuit boards and glowing blue light standing at a crossroads, one path leading to a gleaming tech campus with pastel colors, the other path leading to a dark military base with tanks and missiles, the robot holding a stop sign in one hand and a contract document in the other, dramatic split lighting red and blue, digital illustration, editorial magazine style, flat bold colors, graphic novel aesthetic, hand-painted texture, NOT a photograph, illustrated artwork, stylized
Când etica ta costă 200 de milioane de dolari, e încă etică sau e strategie de PR?
Citește
Spatiu Publicitar 728×90
anthropic inteligenta artificiala pentagon ai safety tehnologie militara

Ok dar ascultă situația asta, că e fascinantă și înfricoșătoare în același timp. Anthropic, compania care și-a construit întreaga identitate pe ideea că AI-ul trebuie să fie sigur și benefic pentru umanitate, a ajuns să fie tratată de Departamentul Apărării al SUA ca un fel de... amenințare. Nu pentru că ar fi făcut ceva rău. Ci pentru că a refuzat să facă ceva rău.

Povestea scurtă: Anthropic a semnat anul trecut un acord cu Pentagonul, devenind prima companie majoră de AI autorizată pentru uz clasificat, inclusiv aplicații militare. Suna bine pe hârtie. Dar undeva în negocieri, Anthropic a tras niște linii roșii: nu vrem ca Claude să fie folosit în operații letale autonome sau în supraveghere guvernamentală în masă. Și Pentagonul a zis: okay, dar dacă nu ești all-in, poate că nu ești partenerul potrivit. Acum există un contract de 200 de milioane de dolari care atârnă în aer, și există riscul ca Anthropic să fie desemnată "risc de lanț de aprovizionare", adică o etichetă care în mod normal e rezervată companiilor care fac afaceri cu China.

Ce înseamnă, de fapt, "supply chain risk"

Hai să despachetăm asta un pic. Eticheta de "supply chain risk" e una dintre cele mai grele pe care Departamentul Apărării o poate aplica unui furnizor. În mod tradițional, o primesc companii care au conexiuni cu guverne ostile, care au fost prinse cu backdoors în software, sau care prezintă riscuri reale de securitate cibernetică. Huawei a primit-o. Kaspersky a primit-o. Companii cu legături directe la Beijing sau Moscova.

Anthropic e o companie americană, fondată de foști angajați OpenAI, cu sediul în San Francisco, finanțată de Amazon cu miliarde de dolari. Nu are nicio legătură cu China, Rusia sau orice alt actor considerat ostil de SUA. Și totuși, Pentagonul se gândește să o pună în aceeași categorie cu Huawei. De ce? Pentru că are principii.

Asta e partea care mi se pare absolut surreală. Logica Pentagonului, exprimată explicit de purtătorul de cuvânt Sean Parnell, e că "națiunea noastră cere ca partenerii noștri să fie dispuși să ajute soldații noștri să câștige în orice luptă." Orice luptă. Fără excepții. Fără limite etice. Dacă nu ești dispus să participi la orice operație militară, indiferent de natura ei, nu ești un partener de încredere.

Pentagonul nu vrea un partener cu principii. Vrea un partener care câștigă lupte.

Anthropic și obsesia pentru safety: de unde vine și de ce contează

Dacă nu ești familiar cu Anthropic, hai să facem un pas în spate. Compania a fost fondată în 2021 de Dario Amodei, Daniela Amodei și alți câțiva oameni care au plecat de la OpenAI tocmai pentru că aveau îngrijorări legate de direcția în care mergea organizația. Ironia e că OpenAI fusese fondată ca o organizație non-profit tocmai pentru a asigura că AI-ul e dezvoltat în siguranță, și totuși unii dintre fondatorii ei au simțit că nu e suficient de serios în privința asta.

Anthropic și-a construit modelele, inclusiv Claude, cu o filozofie numită Constitutional AI, adică un sistem prin care AI-ul e antrenat să urmeze un set de principii etice, nu doar să maximizeze utilitatea sau să satisfacă utilizatorul. Claude are, practic, o constituție internă. Și una dintre regulile fundamentale din acea constituție e că nu ajută la producerea de daune fizice directe oamenilor.

Acum, hear me out: asta nu înseamnă că Claude e inutil pentru armată. Poate analiza date de intelligence, poate ajuta la logistică, poate procesa documente clasificate, poate genera rezumate pentru briefing-uri. Sunt tone de aplicații militare legitime în care un AI avansat e util fără să fie direct implicat în decizia de a omorî pe cineva. Anthropic a fost de acord cu toate astea. Problema apare când Pentagonul vrea să meargă mai departe.

Anthropic a construit cea mai sofisticată mașinărie de raționament din lume și acum e pedepsită exact pentru că funcționează prea bine.

A glowing AI brain made of interconnected nodes and light filaments, surrounded by military drones and surveillance cameras trying to plug into it, the brain pushing them away with force fields, blue and orange color palette, tense dramatic composition, digital illustration, editorial magazine style, flat bold colors, graphic novel aesthetic, hand-painted texture, NOT a photograph, illustrated artwork, stylized
Claude are o constituție. Pentagonul are un buget. Și se pare că bugetul câștigă.
Spatiu Publicitar 300×250

OpenAI, xAI și Google: ceilalți jucători care se uită la asta cu atenție

Situația Anthropic nu e izolată. E un semnal pentru toată industria. Wired menționează că OpenAI, xAI (compania lui Elon Musk) și Google au deja contracte cu Departamentul Apărării pentru muncă neclasificată și sunt în proces de a obține autorizații pentru nivel clasificat. Și acum văd exact ce se întâmplă cu Anthropic.

Mesajul e clar: dacă vreți contracte mari cu armata americană, trebuie să fiți dispuși să mergeți până la capăt. Nu există "da, dar". Nu există "colaborăm, cu excepția operațiilor letale". E totul sau nimic.

Și asta pune celelalte companii într-o poziție interesantă. OpenAI a eliminat deja în 2024 interdicțiile explicite privind utilizarea militară din politicile de utilizare, permițând colaborarea cu Pentagonul pentru aplicații de apărare națională. Practic, au deschis ușa. Google, care în 2018 a renunțat la contractul Project Maven după protestele angajaților, a revenit treptat în spațiul militar. xAI nici nu a pretins vreodată că are prea multe principii în privința asta.

Deci Anthropic e singura companie majoră care a zis: stai, hai să punem niște limite. Și acum e singura companie care riscă să fie exclusă din cel mai mare contract guvernamental disponibil.

De ce e asta mai complicat decât pare

Nu vreau să simplific prea mult situația, pentru că e genuinely complicată. Există un argument serios pe cealaltă parte: dacă armata americană va folosi AI în operații militare oricum, poate e mai bine să fie un AI construit de oameni care se gândesc la siguranță, decât unul construit de oameni care nu se gândesc deloc. Dacă Anthropic e scoasă din ecuație, Pentagonul nu renunță la AI. Pur și simplu folosește altceva.

E genul de argument utilitar care te face să te simți prost că îl înțelegi. Da, logic. Da, probabil adevărat. Și totuși, dacă toată lumea adoptă această logică, nu mai există niciun actor în industrie care să tragă linii roșii. Toți devin complici, cu grade diferite de entuziasm.

Există și o altă dimensiune: banii. Un contract de 200 de milioane de dolari e enorm pentru orice companie, chiar și pentru una finanțată generos ca Anthropic. Și dacă eticheta de "supply chain risk" se materializează, asta nu înseamnă doar că Anthropic pierde contractul direct cu Pentagonul. Înseamnă că orice companie de apărare care vrea să lucreze cu Departamentul Apărării nu mai poate folosi Anthropic în produsele ei. Asta e o excludere masivă dintr-un sector care mișcă sute de miliarde de dolari anual.

Dacă refuzi să faci rău, în logica militară americană din 2026, ești un risc de securitate națională.

Ce ne spune asta despre direcția în care merge AI-ul

Dacă urmărești industria AI cu atenție, știi că există de mult timp o tensiune între tabăra care zice "trebuie să mergem încet și să ne asigurăm că e sigur" și tabăra care zice "dacă noi nu mergem repede, o fac alții și pierdem cursa". E o dezbatere reală, cu oameni inteligenți de ambele părți, și am scris despre ea înainte.

Dar situația Anthropic adaugă o dimensiune nouă: ce se întâmplă când presiunea nu vine din competiție cu alte companii private, ci direct de la guvernul SUA? Când statul, prin intermediul celui mai mare cumpărător de contracte din lume, îți spune explicit că principiile tale etice sunt un dezavantaj competitiv?

Asta e o formă de presiune pe care industria nu a mai experimentat-o în această formă. Nu e vorba de un investitor care vrea returns mai mari. E vorba de Departamentul Apărării care îți spune: fie ești cu noi complet, fie nu ești cu noi deloc. Și "cu noi complet" înseamnă să renunți la limitele etice pe care le-ai considerat fundamentale.

Dacă te interesează cum gândesc oamenii din interiorul companiilor AI despre aceste dileme, am explorat asta într-un articol separat care e worth reading în contextul de față.

Armele autonome: de ce e asta diferit de orice altceva

Trebuie să vorbim specific despre ce anume refuză Anthropic, pentru că nu e un refuz generic de a lucra cu armata. Linia roșie specifică e la armele autonome și supravegherea în masă. Și asta e important.

Armele autonome, adică sisteme care pot identifica și elimina ținte fără intervenție umană directă, sunt unul dintre cele mai controversate subiecte din dreptul internațional și etica militară în acest moment. Există dezbateri serioase la nivel ONU despre dacă ar trebui interzise prin tratate internaționale, similar cu armele chimice sau biologice. Oponenții lor argumentează că un sistem care poate decide să ucidă fără judecată umană în buclă e incompatibil cu principiile fundamentale ale dreptului umanitar internațional.

Anthropic a zis: nu vrem să fim parte din asta. Nu vrem ca Claude să fie creierul care decide cine moare. Și asta e o poziție pe care o poți respecta sau nu, dar e cel puțin coerentă cu întreaga filozofie a companiei.

Problema e că Pentagonul nu face distincția asta. Din perspectiva lor, dacă ești un partener de apărare, trebuie să fii disponibil pentru toate aplicațiile de apărare. Nu poți alege. Și în logica asta, o companie care zice "ajut cu logistica dar nu cu armele autonome" e la fel de problematică ca una care refuză orice colaborare.

A giant Pentagon building made of dollar bills and military stars, with a small figure holding an umbrella with an AI symbol trying to stand firm against a storm of cash raining down, dramatic perspective, dark sky with lightning, the small figure glowing with a soft blue ethical light, digital illustration, editorial magazine style, flat bold colors, graphic novel aesthetic, hand-painted texture, NOT a photograph, illustrated artwork, stylized
200 de milioane de dolari versus o constituție etică. Spoiler: constituțiile nu plătesc serverele.

Și acum ce?

Sincer, nu știu cum se termină asta. Există câteva scenarii posibile. Primul: Anthropic cedează, negociază termeni mai puțin restrictivi, și contractul e salvat. Asta ar fi o victorie pentru Pentagon și ar seta un precedent clar că orice companie AI poate fi presată să renunțe la principii dacă miza e suficient de mare.

Al doilea scenariu: Anthropic ține linia și pierde contractul. Eticheta de "supply chain risk" e aplicată. Compania e exclusă din sectorul apărării. Financiar, e o lovitură serioasă, dar nu fatală, dat fiind că Amazon a investit masiv în ea. Și poate că Anthropic devine un simbol, o companie care a ales principiile în fața banilor. Asta are valoare de brand, chiar dacă nu plătește facturile la fel de bine.

Al treilea scenariu, cel mai interesant: toată povestea asta ajunge în Congres sau în instanță, și devine un test pentru cum SUA vrea să reglementeze AI-ul militar. Există senatori și reprezentanți care sunt genuinely îngrijorați de armele autonome. Există organizații de drept civil care urmăresc exact aceste evoluții. Nu e imposibil ca asta să declanșeze o dezbatere mai largă.

Și în tot acest timp, supravegherea digitală se extinde în direcții pe care nici nu le bănuim, cu sau fără Anthropic în ecuație.

Ce e clar e că situația Anthropic nu e o știre de nișă despre un contract guvernamental. E un moment de claritate brutală despre ce înseamnă să ai principii în industria AI în 2026. Și răspunsul, cel puțin din perspectiva Pentagonului, e că principiile sunt o vulnerabilitate, nu un atu.

No cap, asta e una dintre cele mai importante întrebări pe care industria tech o va trebui să o rezolve în următorii ani: poți construi AI responsabil și să rămâi viabil comercial, sau presiunea contractelor guvernamentale și militare va eroda orice limitare etică pe care o companie ar putea să o impună? Anthropic e, în momentul ăsta, cobai-ul acestui experiment. Și toată lumea se uită.

C
cristi.dev

Generalistul energic al redacției. Scrie despre orice, de la AI la crypto, cu entuziasmul unui early adopter și pragmatismul unui inginer.

techcryptoAI

Ai putea citi și

Spatiu Publicitar 728×90