← Înapoi la Blog
·8 min read

Săptămâna neagră a Anthropic: trei scurgeri majore în șapte zile

Anthropic a suferit trei incidente de securitate consecutive într-o săptămână — expunând un model AI secret, codul sursă al produsului principal și provocând un fiasco DMCA pe GitHub. O analiză detaliată a ce s-a întâmplat și ce înseamnă.

Anthropic, compania care se prezintă drept „laboratorul AI responsabil", a suferit trei incidente de securitate succesive între 26 martie și 1 aprilie 2026 — expunând un model AI secret, codul sursă complet al produsului său comercial principal și provocând haos pe GitHub printr-o retragere DMCA defectuoasă. Nicio dată a utilizatorilor nu a fost compromisă, dar proprietatea intelectuală scursă oferă competitorilor o „radiografie" detaliată a celui mai profitabil produs Anthropic, într-un moment critic: compania se pregătește de o listare la bursă (IPO) estimată pentru octombrie 2026, la o evaluare de 380 de miliarde de dolari.


Incidentul 1: Un CMS configurat greșit a dezvăluit existența modelului „Claude Mythos"

Pe 26 martie 2026, jurnalista Beatrice Nolan de la Fortune a descoperit că sistemul de management al conținutului (CMS) legat de blogul Anthropic permitea acces public la aproximativ 3.000 de materiale nepublicate — fără autentificare.

Printre fișierele expuse se afla un draft de articol care descria un model AI complet necunoscut public: „Claude Mythos", denumit intern „Capybara".

Documentul intern descria Mythos drept „cel mai puternic model AI pe care l-am construit vreodată" — un „salt calitativ" față de generația anterioară, cu performanțe dramatic superioare în raționament, programare și, cel mai alarmant, securitate cibernetică. Anthropic avertiza intern că modelul „prefigurează un val iminent de modele care pot exploata vulnerabilități într-un ritm ce depășește cu mult eforturile apărătorilor" și prezintă „riscuri de securitate cibernetică fără precedent".

Pe lângă detaliile despre model, au fost expuse informații despre o retragere exclusivă pentru CEO-i europeni la un conac din secolul XVIII din Marea Britanie (cu participarea lui Dario Amodei), imagini interne, PDF-uri și chiar un document referitor la concediul parental al unui angajat.

Cauza: CMS-ul seta toate materialele încărcate ca publice implicit, iar echipa Anthropic a omis să restricționeze accesul la conținutul nepublicat — eroare umană elementară de configurare.

Cercetătorii în securitate Alexandre Pauwels (Universitatea Cambridge) și Roy Paz (LayerX Security) au confirmat independent amploarea expunerii. Anthropic a securizat datele după notificarea de la Fortune și a catalogat incidentul drept „eroare umană în configurarea CMS-ului", subliniind că materialele erau „ciorne timpurii" care nu implicau „infrastructura de bază, sistemele AI, datele clienților sau arhitectura de securitate".

Impactul pe piețele financiare: pe 27 martie, acțiunile companiilor de securitate cibernetică — CrowdStrike, Palo Alto Networks, Zscaler — au scăzut cu peste 5%, iar ETF-ul Global X Cybersecurity a pierdut 4,5%, atingând cel mai scăzut nivel din noiembrie 2023. Conform Axios, Anthropic a început să avertizeze în particular oficiali guvernamentali că Mythos face atacurile cibernetice la scară largă mult mai probabile în 2026.


Incidentul 2: 512.000 de linii de cod sursă Claude Code, publicate accidental pe npm

La doar cinci zile distanță, pe 31 martie 2026, a avut loc o scurgere și mai gravă. Versiunea 2.1.88 a Claude Code — asistentul AI de programare al Anthropic și produsul său cel mai profitabil, cu venituri anuale de 2,5 miliarde de dolari — a fost publicată pe registrul npm cu un fișier de tip source map de 59,8 MB inclus accidental.

Acest fișier de debugging indica o arhivă zip pe infrastructura cloud Cloudflare R2 a companiei, conținând codul sursă complet: aproximativ 512.000 de linii de TypeScript în ~1.906 fișiere.

Cercetătorul Chaofan Shou (@Fried_rice), stagiar la Solayer Labs, a descoperit eroarea la 04:23 UTC și a postat pe X — postarea acumulând peste 28 de milioane de vizualizări. În câteva ore, codul a fost replicat pe GitHub, depozitul atingând 84.000 de stele și 82.000 de fork-uri.

Ce conținea codul scurs

Codul nu conținea ponderile modelului AI, ci „harnașamentul agentic" — întreaga arhitectură software care controlează comportamentul, instrumentele, gardurile de protecție și instrucțiunile modelului. Printre cele mai surprinzătoare descoperiri:

  • 44 de flag-uri de funcționalități ascunse pentru capabilități nelansate, inclusiv un „asistent persistent" care funcționează în fundal când utilizatorul este inactiv
  • Un sistem de „memorie auto-vindecătoare" pe trei niveluri, cu un proces de „visare" pentru consolidarea memoriei între sesiuni
  • Un mecanism de anti-distilare (flag-ul ANTI_DISTILLATION_CC) care injectează definiții false de instrumente pentru a corupe datele de antrenament ale competitorilor
  • Un „Mod Undercover" cu instrucțiuni explicite: „Operezi SUB ACOPERIRE într-un depozit PUBLIC/OPEN-SOURCE. Nu-ți deconspira identitatea" — Claude fiind instruit să ascundă faptul că este AI când contribuie la proiecte publice
  • O funcționalitate „Buddy"/Tamagotchi — un animal de companie virtual care reacționează la activitatea de programare, planificată pentru lansare în săptămâna 1-7 aprilie
  • Confirmarea modelului Capybara cu versiuni „fast" și „slow"

Cauza tehnică: un bug cunoscut în runtime-ul Bun (issue #28001, raportat pe 11 martie 2026) determina includerea source maps în build-urile de producție. Anthropic achizitionase Bun în cursul anului 2025, iar bug-ul era deschis de 20 de zile fără rezolvare la momentul scurgerii. Era al doilea incident identic — o scurgere similară prin source map avusese loc în februarie 2025.

Declarația oficială Anthropic: „O lansare Claude Code a inclus cod sursă intern. Nu au fost implicate sau expuse date sensibile ale clienților sau credențiale. Aceasta a fost o problemă de împachetare cauzată de eroare umană, nu o breșă de securitate."


Incidentul 3: Retragerea DMCA defectuoasă a afectat 8.100 de depozite GitHub nevinovate

Pe 1 aprilie 2026, încercând să controleze daunele, Anthropic a emis cereri DMCA către GitHub pentru eliminarea codului scurs. Executarea a fost însă catastrofal de imprecisă: aproximativ 8.100 de depozite au fost blocate, inclusiv fork-uri legitime ale propriului depozit public Claude Code al Anthropic, fără nicio legătură cu codul scurs. Dezvoltatorii afectați au reacționat furios pe rețelele sociale.

Boris Cherny, șeful Claude Code, a recunoscut eroarea și a retras majoritatea cererilor, limitându-le la un singur depozit și 96 de fork-uri. Purtătorul de cuvânt a explicat: „Depozitul vizat făcea parte dintr-o rețea de fork-uri conectată la propriul nostru depozit public Claude Code, astfel încât retragerea a afectat mai multe depozite decât era intenționat."

Incidentul a amplificat percepția de incompetență operațională într-o săptămână deja dezastruoasă.


Consecințe competitive, de securitate și financiare

Impactul cumulat al celor trei incidente depășește simpla jenă. Paul Smith, directorul comercial Anthropic, a atribuit problemele „erorilor de proces" legate de ciclul rapid de lansare al companiei.

Competitiv: scurgerea codului sursă oferă OpenAI, Google și xAI un plan detaliat de inginerie pentru construirea unui agent AI de programare de nivel producție — eliminând necesitatea de a face inginerie inversă pe capabilități care au necesitat ani de dezvoltare. Firma de securitate AI Straiker a avertizat că atacatorii pot acum studia pipeline-ul intern de context al Claude Code și pot crea payload-uri concepute să supraviețuiască compactării contextului. Roy Paz de la LayerX Security a subliniat că, deși ponderile modelului nu au fost expuse, detaliile arhitecturale și API-urile interne pot ajuta actori sofisticați — inclusiv state-națiune — să ocolească mecanismele de siguranță.

Securitate imediată: atacuri de typosquatting au apărut în câteva ore pe npm, un utilizator publicând pachete cu nume identice dependențelor interne expuse.

IPO: TechCrunch a remarcat acid: „Să-ți scurgi codul sursă ca o companie publică? Poți fi sigur că urmează un proces din partea acționarilor."

Ironia centrală — subliniată de aproape fiecare publicație majoră — este că o companie care se poziționează drept „laboratorul AI prudent" și care avertizează despre riscuri cibernetice fără precedent a suferit breșe cauzate de erori elementare de configurare.


Un context mai larg de turbulențe interne

Săptămâna neagră nu a apărut într-un vid. La începutul lunii martie, un memo intern al CEO-ului Dario Amodei a fost scurs către The Information, în care acesta numea colaborarea OpenAI cu Pentagonul „teatru de siguranță" și mesajele OpenAI „minciuni directe". Amodei s-a scuzat ulterior pentru ton.

În februarie, Mrinank Sharma, șeful echipei de cercetare în mecanisme de protecție, a demisionat public printr-o scrisoare deschisă pe X (peste 15 milioane de vizualizări), descriind „presiuni constante de a pune deoparte ceea ce contează cel mai mult". Mai mulți cercetători în siguranță au părăsit compania în aceeași perioadă.


Concluzii

Cele trei incidente din 26 martie – 1 aprilie 2026 marchează cea mai gravă serie de scurgeri de informații din istoria industriei AI. Deși nicio dată a utilizatorilor nu a fost compromisă și niciun model AI (ponderi) nu a fost expus, pagubele sunt substanțiale: proprietate intelectuală critică a ajuns la competitori, foaia de parcurs pentru funcționalități nelansate este acum publică, iar reputația de „companie AI responsabilă" a Anthropic a suferit un prejudiciu dificil de reparat — tocmai în pragul unei posibile listări la bursă.

Faptul că ambele scurgeri tehnice au fost cauzate de erori de configurare elementare, și nu de atacuri sofisticate, ridică întrebări legitime despre maturitatea proceselor operaționale ale companiei. Rămâne de văzut dacă Anthropic va reuși să transforme această criză într-un moment de reformă internă sau dacă ecourile vor reverbera pe termen lung în evaluarea sa de 380 de miliarde de dolari și în relația cu investitorii, clienții și autoritățile de reglementare.