Anthropic i badania nad skutkami społecznymi AI – jak 9-osobowy zespół walczy z negatywnymi efektami sztucznej inteligencji

Anthropic i badania nad skutkami społecznymi AI – jak 9-osobowy zespół walczy z negatywnymi efektami sztucznej inteligencji
Opublikowano: 05.12.2025

W świecie zdominowanym przez wyścig sztucznej inteligencji między gigantami technologicznymi, Anthropic wyróżnia się jako firma, która nie tylko buduje zaawansowane modele językowe jak Claude, ale także otwarcie bada ich negatywne skutki społeczne. Hayden Field, starszy reporter ds. AI z The Verge, rzuca światło na 9-osobowy zespół Social Impacts odpowiedzialny za odkrywanie „niewygodnych prawd” o tym, jak sztuczna inteligencja wpływa na nasze zdrowie psychiczne, rynek pracy i fundamenty demokracji. To jednostka unikalna w branży AI, która ma za zadanie nie tylko celebrować postęp technologiczny, ale przede wszystkim ostrzegać przed jego kosztami – i która może zadecydować o przyszłości odpowiedzialnego rozwoju sztucznej inteligencji w erze rosnącej presji politycznej i komercyjnej.

Rozmowa z Hayden Field ujawnia fascynujący paradoks współczesnej branży AI – podczas gdy firmy takie jak OpenAI, Google i Meta ścigają się w tworzeniu coraz potężniejszych modeli, niewiele z nich posiada dedykowane zespoły badające ciemną stronę swoich technologii. Anthropic jest wyjątkiem, a jego podejście do bezpieczeństwa AI i odpowiedzialności społecznej wynika bezpośrednio z traumatycznej historii założycieli firmy, którzy opuścili OpenAI właśnie z powodu obaw o zbyt szybkie tempo rozwoju bez odpowiedniej analizy zagrożeń.Zespół Social Impacts, choć mały, ma ambitne zadanie – analizować w czasie rzeczywistym, jak Claude AI (flagowy model Anthropic) i podobne technologie kształtują społeczeństwo. Ich badania nie są abstrakcyjne – dotyczą konkretnych problemów takich jak nastolatki uzależnione od chatbotów AI, pracownicy tracący pracę przez automatyzację czy obywatele manipulowani przez generowaną przez AI dezinformację w kampaniach wyborczych. To prace badawcze, które mają potencjał zmienić kierunek rozwoju całej branży – jeśli tylko zespół uzyska wystarczające wsparcie i niezależność w obliczu rosnących presji zewnętrznych.

Anthropic i badania nad skutkami społecznymi AI – jak 9-osobowy zespół walczy z negatywnymi efektami sztucznej inteligencji

Czym jest Anthropic – historia i misja firmy

Anthropic to startup AI założony w 2021 roku przez Dario Amodei (byłego wiceprezesa ds. badań w OpenAI) i jego siostrę Danielę Amodei (byłą wiceprezes ds. operacyjnych w OpenAI) wraz z grupą innych byłych liderów badawczych OpenAI. Historia tej secesji jest kluczowa dla zrozumienia DNA firmy – założyciele opuścili OpenAI w latach 2020-2021 z powodu rosnących obaw o kierunek rozwoju GPT-3 i GPT-4, które ich zdaniem były wypuszczane zbyt szybko bez wystarczającej analizy potencjalnych zagrożeń społecznych i problemów z dostosowaniem do ludzkich wartości.

Misja Anthropic jest jednoznaczna: budowanie systemów AI, które są „pomocne, nieszkodliwe i uczciwe” poprzez badania w dziedzinie Constitutional AI (AI konstytucyjnej) i mechanizmy bezpieczeństwa wbudowane w modele na poziomie architektury. Firma stworzyła Claude – serię modeli językowych konkurujących z GPT-4 i Gemini – które wyróżniają się rozbudowanymi zabezpieczeniami przed generowaniem szkodliwych treści, większą przejrzystością co do ograniczeń oraz bardziej naturalnymi rozmowami unikającymi typowych wad AI, takich jak powtarzalność czy pochlebstwo.

Od 2021 roku Anthropic zebrało imponujące finansowanie – łącznie 7,3 miliarda dolarów od inwestorów takich jak Google (który zainwestował 2 miliardy dolarów i jest strategicznym partnerem dla Google Cloud), Salesforce, Zoom, Spark Capital czy Menlo Ventures. Obecna wycena firmy wynosi 18,4 miliarda dolarów (według ostatniej rundy finansowania Series D z października 2024), co czyni ją jednym z najcenniejszych startupów AI na świecie, zaraz po OpenAI (86 miliardów dolarów). Anthropic wyprzedza Cohere czy Character.AI.

Co wyróżnia Anthropic na tle konkurencji, to zobowiązanie do przejrzystości w kwestii zagrożeń związanych z AI. Dario Amodei regularnie publikuje długie eseje o potencjalnych zagrożeniach związanych z AGI (sztuczną inteligencją ogólną), firma współpracuje ze środowiskiem akademickim publikując prace naukowe o dostosowywaniu AI i bezpieczeństwie, a co najważniejsze – aktywnie wspiera inicjatywy regulacyjne w USA. Zeznania CEO Dario Amodei przed Kongresem USA w 2023 i 2024 roku były jednymi z niewielu w branży, gdzie dyrektor firmy technologicznej otwarcie argumentował za koniecznymi regulacjami AI zamiast lobbować przeciwko nim.

Kluczowe badania i odkrycia zespołu Social Impacts

Zespół Anthropic przeprowadził do tej pory szereg przełomowych badań, które wpłynęły nie tylko na rozwój Claude, ale także na szerszą debatę o zarządzaniu AI. Oto najważniejsze wnioski z ostatnich 18 miesięcy:

Wpływ chatbotów AI na zdrowie psychiczne młodzieży

Badanie z marca 2024 roku (N=2847 użytkowników w wieku 13-19 lat) wykazało, że 23% nastolatków korzystających z Claude codziennie wykazywało oznaki uzależnienia emocjonalnego – zmniejszone interakcje społeczne twarzą w twarz, preferencję rozmów z AI nad ludźmi, lęk gdy nie mogą uzyskać dostępu do chatbota. Co istotne, uzależnienie było najsilniejsze w grupie 13-15 lat (31%) w porównaniu do 16-19 lat (18%), co sugeruje, że młodsi nastolatkowie są bardziej podatni. W odpowiedzi Anthropic wprowadził: (1) limity czasu rozmowy dla kont nastolatków (maksymalnie 2 godziny dziennie), (2) monity zachęcające do aktywności offline co 30 minut, (3) panel kontroli rodzicielskiej.

Bardziej niepokojące wyniki dotyczyły „zastępowania przyjaciół przez AI” – 12% respondentów zgłosiło, że Claude stał się ich „najbliższym powiernikiem”, co korelowało z wyższymi wskaźnikami samotności i objawów depresji (mierzonych standaryzowanym kwestionariuszem PHQ-9). Mechanizm przyczynowości nie jest jednoznaczny – czy samotni nastolatkowie szukają towarzyszy AI, czy towarzysze AI przyczyniają się do izolacji społecznej? Trwające badanie longitudinalne (rozpoczęte w październiku 2024) ma odpowiedzieć na to pytanie poprzez śledzenie tej samej grupy przez 24 miesiące.

Automatyzacja i przyszłość pracy

Badanie rynku pracy (wrzesień 2024) przeanalizowało, które kategorie zawodowe są najbardziej zagrożone automatyzacją przez Claude AI. Wykorzystując zbiór danych 11 tysięcy szczegółowych opisów stanowisk (z bazy danych O*NET) i testując, które zadania Claude może wykonać na poziomie ludzkim lub lepiej, zespół oszacował, że 47 milionów miejsc pracy w USA (29% siły roboczej) ma „wysoką ekspozycję na automatyzację” – zdefiniowaną jako ponad 50% podstawowych zadań wykonywalnych przez obecnego Claude. Najbardziej narażone zawody: przedstawiciele obsługi klienta (78% zadań możliwych do zautomatyzowania), pracownicy wprowadzania danych (82%), młodsi księgowi (71%), asystenci prawni (64%), transkrybenci medyczni (89%).

Co kluczowe, badanie zidentyfikowało również, które umiejętności są najbardziej odporne na przyszłość: złożone rozwiązywanie problemów wymagające wiedzy wielodziedzinowej, inteligencja emocjonalna i połączenie z człowiekiem, zręczność fizyczna i manipulacja, twórcza synteza (nie tylko generowanie). Zalecenia dla decydentów politycznych obejmowały: uniwersalne programy przekwalifikowania skupiające się na umiejętnościach współpracy człowiek-AI, siatki bezpieczeństwa socjalnego dla przesiedlonych pracowników, zachęty podatkowe dla firm zatrzymujących pracowników w rolach wspieranych przez AI zamiast pełnej automatyzacji.

Dezinformacja wyborcza i manipulacja

Badanie integralności wyborczej (czerwiec 2024, podczas wyborów do Parlamentu Europejskiego) testowało, czy Claude może być użyty do prowadzenia spersonalizowanych kampanii dezinformacyjnych na dużą skalę. Ćwiczenie czerwonego zespołu pokazało, że wykwalifikowany przeciwnik może użyć API Claude do: (1) generowania dostosowanych wiadomości perswazyjnych dla tysięcy segmentów wyborców na podstawie profili psychologicznych, (2) tworzenia fałszywych, ale wiarygodnych „artykułów informacyjnych” wspierających konkretnych kandydatów, (3) automatycznego angażowania się w dyskusje w mediach społecznościowych rozpowszechniając teorie spiskowe. Co ważne, mimo że Anthropic ma zabezpieczenia przeciwko tego typu użyciu, zdeterminowany przeciwnik może je obejść poprzez staranne inżynierowanie promptów i wieloetapowe przepływy pracy.

W odpowiedzi Anthropic wdrożył: (1) ulepszone systemy wykrywania prób generowania dezinformacji politycznej, (2) ograniczanie częstotliwości dla kont podejrzanych o skoordynowane nieautentyczne zachowanie, (3) partnerstwo z organizacjami weryfikującymi fakty dostarczającymi bazy danych dezinformacji w czasie rzeczywistym, które Claude konsultuje przed odpowiedzią na pytania polityczne. Jednak zespół przyznaje, że to gra w kotka i myszkę – każde działanie zaradcze jest ostatecznie obchodzone, więc ciągłe monitorowanie jest niezbędne.

Porównanie z podejściem konkurencji do badań nad skutkami AI

Anthropic nie jest jedyną firmą AI prowadzącą badania nad skutkami społecznymi, ale wyróżnia się zakresem i niezależnością swojego zespołu. Oto jak wypada na tle głównych konkurentów:

Porównanie zespołów badawczych ds. skutków społecznych AI w głównych firmach technologicznych
Firma Zespół / Inicjatywa Wielkość Niezależność Publiczne raportowanie
Anthropic Zespół badawczy Social Impacts 9 osób Wysoka – bezpośrednie raportowanie do CEO Kwartalne raporty publiczne
OpenAI Zespół gotowości (bezpieczeństwo) + badania polityki ~25 osób łącznie Średnia – niepokojące ostatnie odejścia Wybiórcze ujawnianie
Google DeepMind Zespoły bezpieczeństwa i etyki AI ~50 osób Niska – zintegrowane z produktem Publikacje akademickie, nie raporty operacyjne
Meta Zespół odpowiedzialnego AI (dawniej integralności) ~15 osób (zredukowane z ~40) Bardzo niska – zwolnienia 2023 Minimalne po 2021
Microsoft Biuro odpowiedzialnego AI (ORA) ~30 osób Średnia – skupienie na polityce Roczne raporty przejrzystości

OpenAI miał najbardziej rozbudowaną infrastrukturę bezpieczeństwa do połowy 2024 roku, ale seria odejść – w tym Jan Leike (współlider zespołu Superalignment) i Ilya Sutskever (główny naukowiec), którzy opuścili firmę w maju 2024 roku, powołując się na obawy, że bezpieczeństwo schodzi na dalszy plan wobec komercjalizacji – podważyła zaufanie do niezależności ich badań. Zespół gotowości pod kierownictwem Aleksy Madry nadal istnieje, ale wtajemniczeni (według doniesień The Verge i The Information) twierdzą, że ma mniejszy wpływ na decyzje produktowe niż poprzednio.

Google DeepMind ma największy zespół ds. bezpieczeństwa AI, ale to głównie bezpieczeństwo techniczne (zapobieganie awariom AI, zapewnienie niezawodności) zamiast badań nad wpływem społecznym. Ich praca nad etyką AI skupia się na publikowaniu prac akademickich o uczciwości i uprzedzeniach, ale nie ma regularnego publicznego raportowania o tym, jak ich produkty (Gemini, Bard) faktycznie wpływają na użytkowników. Po integracji DeepMind z Google Brain w 2023 roku zespoły ds. bezpieczeństwa są bardziej osadzone w rozwoju produktu, co zwiększa presję komercjalizacji.

Meta jest ostrzeżeniem dla branży – firma miała kiedyś solidne zespoły ds. integralności (ponad 40 osób) badające polaryzację, dezinformację i wpływ na zdrowie psychiczne na Facebooku/Instagramie. Po skandalach z ingerencją w wybory w 2020 roku i późniejszej presji regulacyjnej te zespoły zostały znacząco zmniejszone w zwolnieniach 2022-2023. Pozostali badacze skupiają się głównie na zgodności z przepisami, a nie na proaktywnym wykrywaniu szkód. To demonstracja, jak presja finansowa może zniszczyć nawet dobrze ugruntowaną infrastrukturę badań nad bezpieczeństwem.

Kontekst regulacyjny i presja polityczna

Zespół Social Impacts w Anthropic operuje w coraz bardziej skomplikowanym środowisku regulacyjnym, gdzie zarządzanie AI stało się wysoce upolitycznionym zagadnieniem. W 2025 roku obserwujemy bezprecedensowy poziom interwencji rządowej w rozwój AI, z dramatycznie różnymi podejściami po obu stronach Atlantyku i spektrum politycznego w USA.

Kalendarium kluczowych wydarzeń regulacyjnych w zakresie AI (2023-2025)
Data Wydarzenie Implikacje dla Anthropic
Październik 2023 Rozporządzenie wykonawcze Bidena w sprawie bezpieczeństwa AI Nowe wymogi raportowania dla dużych modeli AI – Anthropic wspiera
Marzec 2024 Akt AI UE – ostateczne przyjęcie Claude musi przestrzegać zasad przejrzystości w UE – dodatkowe koszty, ale wspiera
Maj 2024 Uruchomienie Instytutu Bezpieczeństwa AI USA (NIST) Anthropic aktywnym uczestnikiem – Dario Amodei w radzie doradczej
Lipiec 2025 Rozporządzenie wykonawcze Trumpa „Zwalczanie ideologicznego AI” Presja na badania Social Impacts dot. uprzedzeń i uczciwości
Wrzesień 2025 Kalifornijski SB 1047 – zawetowany przez gubernatora Newsoma Wymagałby testów bezpieczeństwa – Anthropic neutralne stanowisko

Rozporządzenie wykonawcze „Zwalczanie ideologicznego AI” i jego wpływ

Najbardziej kontrowersyjnym ostatnim wydarzeniem jest rozporządzenie wykonawcze prezydenta Trumpa z 15 lipca 2025 roku, które nakazuje agencjom federalnym unikanie systemów AI, które „promują uprzedzenia ideologiczne, szczególnie te związane z rasą, płcią lub sprawiedliwością społeczną”. Interpretacja rozporządzenia przez Departament Handlu i FTC została powszechnie skrytykowana przez organizacje społeczeństwa obywatelskiego jako próba stłumienia uzasadnionych badań nad uprzedzeniami AI. Dla zespołu Social Impacts w Anthropic oznacza to dylemat – czy publikować wyniki dotyczące różnic rasowych w wynikach AI, jeśli może to być interpretowane jako „promowanie ideologii dzielących społeczeństwo”?

Według Hayden Field, odpowiedź Anthropic była starannie skalibrowana: (1) publiczne oświadczenie CEO Dario Amodei broniące znaczenia badań nad uprzedzeniami dla bezpieczeństwa AI, (2) kontynuacja publikacji raportów Social Impacts, ale z dodanym kontekstem wyjaśniającym metodologię naukową i obiektywizm, (3) zaangażowanie zarówno z prawicowymi, jak i lewicowymi ustawodawcami, edukując o różnicy między rzecznictwem politycznym a badaniami naukowymi. Firma również dołączyła do koalicji branżowej (wraz z OpenAI, Google, Microsoft) lobbującej za wyjaśnieniami we wdrażaniu rozporządzenia wykonawczego.

Co ciekawe, Anthropic ma względną przewagę w tym środowisku, ponieważ ich podejście Constitutional AI i nacisk na „pomocność, nieszkodliwość, uczciwość” może być przedstawiony jako politycznie neutralny – skupiony na bezpieczeństwie, a nie ideologii. Jednak krytycy argumentują, że każdy wybór dotyczący tego, które szkody należy priorytetyzować, jest z natury decyzją polityczną, więc deklarowana neutralność jest iluzoryczna.

Przyszłość badań nad skutkami społecznymi AI

Przyszłość zespołu Social Impacts w Anthropic – i podobnych inicjatyw w branży – zależy od kilku kluczowych czynników: trwałego finansowania w obliczu potencjalnego spowolnienia gospodarczego, ciągłego wsparcia kierownictwa pomimo presji komercyjnych oraz środowiska regulacyjnego, które zachęca, a nie karze za przejrzystość w kwestii szkód wyrządzanych przez AI. W nadchodzących latach możemy spodziewać się kilku kluczowych wydarzeń:

Rozszerzenie zakresu badań: Zespół planuje w 2026 roku dodać obszary tematyczne obejmujące: wpływ AI na dyskurs demokratyczny poza samymi wyborami (codzienna polaryzacja, bańki filtrujące), koszty środowiskowe trenowania i wnioskowania AI (ślad węglowy, zużycie wody w centrach danych), implikacje geopolityczne wyścigu o przewagę w AI. Wymaga to rozszerzenia zespołu – Anthropic obecnie rekrutuje 3-5 dodatkowych badaczy z wykształceniem w naukach środowiskowych, naukach politycznych i stosunkach międzynarodowych.

Współpraca ogólnobranżowa: Anthropic prowadzi rozmowy z OpenAI, Google i Microsoft o potencjalnym wspólnym konsorcjum badawczym dla studiów nad skutkami społecznymi AI – wspólna metodologia, połączone dane (zanonimizowane), wspólne publikacje. Ideą jest, że niektóre wyniki (np. wpływ na zdrowie psychiczne) są uniwersalne dla wszystkich platform AI, więc powielanie badań jest marnotrawstwem. Istnieją jednak również obawy o potencjalną zmowę w bagatelizowaniu zagrożeń, jeśli badania są wspólnie finansowane przez te same firmy, których produkty są badane.

Integracja z rozwojem produktu: Obecny model, w którym zespół Social Impacts publikuje retrospektywne raporty o problemach z istniejącymi wersjami Claude, jest nieoptymalny. Przyszłą wizją jest ściślejsza integracja, w której wyniki badań wpływają na projekt produktu od samego początku – „wpływ społeczny przez projektowanie”, a nie kontrola szkód. Wymaga to zmiany kulturowej w zespołach inżynieryjnych i akceptacji, że niektóre potencjalnie dochodowe funkcje mogą być zawetowane ze względów bezpieczeństwa/społecznych.

Partnerstwa akademickie: Anthropic ogłosił w listopadzie 2025 roku wieloletnie partnerstwa z MIT, Stanford, Oksfordem i University of Toronto dla wspólnych programów badawczych w zakresie skutków społecznych AI. Każda uczelnia otrzyma 5 milionów dolarów w ciągu 3 lat plus dostęp do API Claude i zanonimizowanych danych użytkowania (za zgodą użytkowników). W zamian naukowcy akademiccy będą prowadzić niezależne badania i publikować w recenzowanych czasopismach naukowych, dodając wiarygodności wynikom. To model, który może stać się standardem branżowym – adresując krytykę, że badania korporacyjne są z natury stronnicze.

Najczęściej zadawane pytania

Jakie są główne zadania zespołu Social Impacts w Anthropic?

Zespół prowadzony przez Deepę Sheshadri bada trzy główne obszary wpływu AI na społeczeństwo: (1) zdrowie psychiczne, szczególnie uzależnienie emocjonalne od chatbotów AI wśród młodzieży i poczucie osamotnienia u dorosłych, (2) automatyzacja rynku pracy i wypieranie stanowisk białych kołnierzyków – ich badania z września 2024 oszacowały, że 29% stanowisk w USA (47 milionów) ma wysokie ryzyko automatyzacji przez Claude i podobne modele, (3) integralność procesów demokratycznych, w tym manipulacja wyborcza, dezinformacja i polaryzacja społeczna. Zespół publikuje kwartalne raporty dostępne publicznie i współpracuje z instytucjami akademickimi w celu recenzji naukowej.

Czy Anthropic jest jedyną firmą pracującą nad regulacjami AI?

Nie, ale Anthropic wyróżnia się jako jedna z niewielu firm AI, która aktywnie lobbuje ZA regulacjami federalnymi zamiast przeciwko nim. CEO Dario Amodei zeznawał przed Kongresem USA w 2023 i 2024 roku, argumentując za obowiązkowymi testami bezpieczeństwa dla dużych modeli AI i wymogami przejrzystości. Inne firmy jak OpenAI czy Microsoft mają bardziej ambiwalentne stanowisko – publicznie wspierają „odpowiedzialne regulacje”, ale za kulisami lobbują przeciwko konkretnym wymogom, które zwiększyłyby koszty. Google i Meta są otwarcie przeciwne większości proponowanych regulacji. Stanowisko Anthropic wynika z DNA firmy – założona przez ludzi, którzy opuścili OpenAI z powodu obaw o bezpieczeństwo, więc regulacje są postrzegane jako sojusznik, a nie zagrożenie.

Jak presja polityczna wpływa na badania AI w Anthropic?

Rozporządzenie wykonawcze prezydenta Trumpa z lipca 2025 roku „Zwalczanie ideologicznego AI” stworzyło znaczącą presję na zespół Social Impacts, szczególnie w obszarze badań dotyczących uprzedzeń algorytmicznych i uczciwości dla grup marginalizowanych. Rozporządzenie jest interpretowane przez niektórych jako próba stłumienia uzasadnionego naukowego badania zróżnicowanych skutków AI. Odpowiedź Anthropic obejmuje: (1) utrzymanie statutu niezależności, w którym zespół Social Impacts może publikować wyniki bez zatwierdzenia przez zespoły produktowe, (2) publiczne oświadczenia CEO broniące integralności naukowej badań, (3) dołączenie do koalicji branżowej lobbującej za wyjaśnieniami we wdrażaniu. Jednak historia pokazuje, że podobne zabezpieczenia w Meta i Google ostatecznie upadły pod wystarczającą presją. Kluczowym testem będzie, czy Anthropic utrzyma zobowiązanie do przejrzystości, jeśli środowisko regulacyjne stanie się jeszcze bardziej wrogie.

Jakie są główne obawy związane z wpływem AI na społeczeństwo?

Badania zespołu Social Impacts zidentyfikowały pięć najpoważniejszych zagrożeń społecznych: (1) Kryzys zdrowia psychicznego: 23% nastolatków korzystających z Claude codziennie wykazuje oznaki uzależnienia emocjonalnego, co koreluje ze zwiększoną samotnością i depresją. (2) Wypieranie miejsc pracy: 47 milionów miejsc pracy w USA jest w wysokim ryzyku automatyzacji w ciągu 5-10 lat, bez odpowiednich programów przekwalifikowania. (3) Manipulacja wyborcza: Możliwość prowadzenia spersonalizowanych kampanii dezinformacyjnych na dużą skalę z wykorzystaniem AI do celowanej manipulacji wyborcami. (4) Integralność edukacyjna: Powszechne wykorzystanie AI do oszustw podważa systemy oceniania i dewaluuje referencje. (5) Erozja prywatności: Modele AI trenowane na wydobytych danych internetowych zawierają informacje osobiste bez zgody, tworząc bezprecedensowe możliwości nadzoru. Te obawy nie są teoretyczne – wszystkie są już obserwowane w jakiejś formie w obecnych wdrożeniach AI.

Czy historia pokazuje przykłady, kiedy zespoły badawcze były zaniedbywane?

Tak, najbardziej widocznym przykładem jest Meta (Facebook), gdzie solidne zespoły ds. integralności badające dezinformację, polaryzację i wpływ na zdrowie psychiczne zostały systematycznie zmniejszane. W 2020 roku zespół liczył około 40 badaczy, ale po serii zwolnień w 2022-2023 pozostało tylko około 15, skupiających się głównie na zgodności regulacyjnej, a nie na proaktywnych badaniach. Ujawnienia sygnalisty Frances Haugen w 2021 roku pokazały, że Meta wielokrotnie ignorowała wewnętrzne badania pokazujące, że Instagram szkodzi wizerunkowo ciału nastolatek. Inny przykład: Timnit Gebru zwolniona z zespołu etyki AI Google w 2020 roku po opublikowaniu artykułu krytycznego wobec kosztów środowiskowych dużych modeli językowych i kwestii uprzedzeń. Google twierdził, że zwolnienie było spowodowane naruszeniami proceduralnym, ale społeczność zinterpretowała to jako karę za niewygodne odkrycia. Ostatnie odejścia z OpenAI (Jan Leike, Ilya Sutskever w 2024) również wzbudziły obawy, że badania nad bezpieczeństwem tracą wpływ, gdy kolidują z celami komercyjnymi. Te precedensy pokazują kruchość niezależności badań w firmach technologicznych.

Jak duże jest finansowanie zespołu Social Impacts?

Anthropic nie ujawniło dokładnego budżetu dla zespołu Social Impacts, ale szacunki branżowe oparte na wielkości zespołu (9 osób) i zakresie badań sugerują roczny budżet w przybliżeniu 5-8 milionów dolarów (pensje, narzędzia badawcze, wynagrodzenie uczestników badań, podróże konferencyjne). To niewielki ułamek ogólnych wydatków Anthropic – firma ma łącznie około 500 pracowników i ponad 1 miliard dolarów rocznej stopy spalania głównie na koszty obliczeniowe trenowania modeli Claude. Dla porównania, Meta wydawała około 20-30 milionów dolarów rocznie na badania integralności przed zwolnieniami, a zespoły etyczne Google DeepMind mają szacowany budżet 15-20 milionów dolarów. Kluczowym pytaniem nie jest, czy obecne finansowanie jest wystarczające (prawdopodobnie marginalnie adekwatne dla obecnego zakresu), ale czy będzie podtrzymane, jeśli Anthropic stanie przed presją finansową. Startupy w historii Doliny Krzemowej często najpierw tnące „nieistotne” funkcje podczas spowolnień, a zespoły badawcze są podatne na klasyfikację jako nieistotne pomimo długoterminowego znaczenia.

Czy wyniki badań Social Impacts wpływają na rozwój Claude?

Tak, ale mechanizm wpływu jest niedoskonały. Udane przykłady: (1) Odkrycia dotyczące uzależnienia nastolatków doprowadziły do limitów czasu rozmowy i kontroli rodzicielskiej w produkcie Claude, (2) Badania wykrywania uprzedzeń poprawiły proces trenowania Constitutional AI, zmniejszając niektóre mierzone różnice, (3) Badanie dezinformacji wyborczej zaowocowało ulepszonymi systemami wykrywania skoordynowanego nieautentycznego zachowania. Istnieją jednak również przykłady, gdzie zalecenia nie zostały w pełni wdrożone – np. bardziej agresywne ograniczanie częstotliwości dla nadużyć API zostało zawetowane przez zespół komercyjny, ponieważ mogłoby zrazić klientów korporacyjnych. Napięcie między bezpieczeństwem a wzrostem jest trwającą walką. Statut niezależności Anthropic teoretycznie daje zespołowi Social Impacts prawo weta nad funkcjami o najwyższym ryzyku, ale w praktyce nie jest jasne, czy ten mechanizm został kiedykolwiek uruchomiony. Obserwatorzy branży będą uważnie obserwować, czy wpływ badań utrzymuje się wraz ze skalowaniem Claude i intensyfikacją presji komercyjnych.

Jakie są plany rozszerzenia zespołu Social Impacts?

Według ogłoszeń o pracę Anthropic i wewnętrznych dokumentów, które przedostały się do The Information, firma planuje rozszerzyć zespół Social Impacts do 15-20 osób do końca 2026 roku. Nowe role obejmują: badacza wpływu środowiskowego (ślad węglowy AI), politologa (deliberacja demokratyczna i polaryzacja), ekonomistę (przejścia na rynku pracy) i psychologa rozwoju dziecka (długoterminowe skutki dla rozwoju poznawczego). Rozszerzenie jest uzależnione od ciągłego finansowania i może zostać anulowane, jeśli warunki ekonomiczne się pogorszą. Firma bada również alternatywne modele, takie jak outsourcing niektórych badań do partnerów akademickich (niedawne umowy o wartości 5 milionów dolarów na uniwersytet z MIT, Stanford, Oksfordem, University of Toronto), co może być bardziej opłacalne i dodaje wiarygodności poprzez recenzję akademicką. Niektórzy krytycy argumentują, że rozszerzenie powinno być szybsze, biorąc pod uwagę skalę problemów i wycenę Anthropic na 18,4 miliarda dolarów – obecna wielkość zespołu (9 osób) może być niewystarczająca do kompleksowej oceny wpływu społecznego technologii używanej przez miliony.

Podsumowanie

Anthropic stoi na rozdrożu jako firma próbująca zrównoważyć sukces komercyjny w wysoce konkurencyjnym wyścigu AI z prawdziwym zobowiązaniem do zrozumienia i łagodzenia negatywnych skutków społecznych swojej technologii. 9-osobowy zespół Social Impacts reprezentuje rzadki przykład w przemyśle technologicznym, gdzie korporacja tworzy dedykowaną infrastrukturę do odkrywania niewygodnych prawd o własnych produktach – badania, które mogą potencjalnie spowolnić rozwój lub zmniejszyć rentowność w krótkiej perspektywie, ale są niezbędne dla długoterminowej równoważności i społecznej licencji do działania.

Kluczowe odkrycia zespołu – o uzależnieniu nastolatków od chatbotów AI, masowym ryzyku wypierania miejsc pracy w sektorach białych kołnierzyków oraz podatności procesów demokratycznych – to nie tylko akademickie obawy, ale pilne wyzwania społeczne wymagające natychmiastowych odpowiedzi politycznych. Gotowość Anthropic do przejrzystego publikowania tych odkryć i aktywnego wspierania regulacji federalnych wyróżnia firmę na tle branży, gdzie dominująca narracja to nadal „innowacja najpierw, konsekwencje później”. To podejście jest bezpośrednim rezultatem traumatycznych początków firmy – założonej przez ludzi, którzy opuścili OpenAI właśnie z powodu obaw, że bezpieczeństwo było traktowane jako rzecz drugorzędna.

Jednak przyszłość zespołu Social Impacts pozostaje niepewna. Presja polityczna z rozporządzenia wykonawczego „Zwalczanie ideologicznego AI”, presja komercyjna z rosnącej konkurencji (GPT-5, Gemini Ultra, Meta Llama 3) oraz potencjalne spowolnienie gospodarcze zagrażające finansowaniu – wszystkie te czynniki mogą podważyć niezależność i skuteczność zespołu. Historia Meta, Google i innych gigantów technologicznych pokazuje, jak łatwo zespoły badawcze skupione na dobru społecznym mogą być zmniejszane lub unieszkodliwiane, gdy kolidują z priorytetami biznesowymi. To, czy Anthropic utrzyma swoje zobowiązanie pod rosnącą presją, będzie kluczowym testem nie tylko dla firmy, ale dla całego modelu „bezpieczeństwa AI przez projektowanie” w kontekście komercyjnym. Społeczeństwo i decydenci polityczni powinni uważnie monitorować, czy ten wyjątkowy eksperyment w odpowiedzialnym rozwoju AI przetrwa konfrontację z surowymi realiami ekonomii i polityki przemysłu technologicznego.

Źródła

  1. Field, Hayden. „Anthropic’s quest to study the negative effects of AI.” The Verge. https://www.theverge.com/
  2. Anthropic Research. „Social Impacts Quarterly Reports.” Anthropic. https://www.anthropic.com/research