Google Macha Ręką na Bunt Pracowników i Ogłasza, że Jest 'Dumne' z Budowania AI dla Pentagonu Trumpa
Google zignorowało bunt prawie tysiąca pracowników i ogłosiło, że jest dumne z niejawnych prac AI dla Pentagonu Trumpa. Sprawdź, co to oznacza dla użytkowników w UK.
Google ma nowe ulubione słowo i nie jest nim "nie". Firma, która niegdyś obiecała nie być zła, zbagatelizowała otwarty list setek własnych pracowników i ogłosiła, że jest "dumna" z prowadzenia niejawnych prac nad AI dla Pentagonu Donalda Trumpa. Czytanie nastrojów wyraźnie nie jest jej mocną stroną.
Według raportu The Independent, kierownictwo Google zignorowało obawy zgłoszone przez pracowników dotyczące coraz głębszych relacji firmy z Departamentem Obrony Stanów Zjednoczonych. Umowa daje Pentagonowi dostęp do modeli AI Google na potrzeby niejawnych prac wojskowych, a szefowie na górze piętrze są z tego niezmiernie zadowoleni.
Na czym właściwie polega ta umowa
Google jest jedną z ośmiu firm technologicznych dopuszczonych do podłączenia swojej AI do najbardziej tajnych sieci Pentagonu. Pełna lista, dla uniknięcia wątpliwości, to: Google, Microsoft, Amazon Web Services, OpenAI, Nvidia, Oracle, SpaceX i Reflection. Anthropic, skupiony na bezpieczeństwie twórca Claude'a, został wyraźnie pominięty po otrzymaniu etykietki "ryzyko łańcucha dostaw" -- oznaczenia, które firma kwestionuje teraz przed sądem.
Sama umowa podobno pozwala Pentagonowi używać AI Google "w dowolnym zgodnym z prawem celu", z wyłączeniami rzekomo wykluczającymi autonomiczną broń i masową inwigilację. Cynicy zauważą, że sformułowanie "dowolny zgodny z prawem cel" dźwiga w tym zdaniu bardzo ciężki ładunek.
List pracowników, który nikogo nie poruszył
Wewnętrzny sprzeciw nie był bynajmniej marginalny. Otwarty list do dyrektora generalnego Sundara Pichaiego początkowo zebrał ponad 580 podpisów, w tym ponad 20 dyrektorów i wiceprezesów, a także starszych naukowców z Google DeepMind. Według doniesień liczba ta wzrosła do gdzieś między 950 a 1000, gdy wiadomość się rozeszła.
Sygnatariusze ostrzegali przed "nieetycznym i niebezpiecznym wykorzystaniem" wojskowej AI i wzywali kierownictwo do odmowy przyjęcia niejawnych kontraktów obronnych. Jeden z badaczy DeepMind, Andreas Kirsch, napisał na X, że jest "bez słów" i nazwał umowę "haniebną".
Odpowiedź Google sprowadzała się w istocie do uprzejmego wzruszenia ramionami.
To nie pierwszy bunt pracowników Google
Jeśli coś w tym wydaje się znajome, to dlatego, że tak jest. W 2018 roku około 4000 pracowników podpisało petycję przeciwko Projektowi Maven -- programowi Pentagonu, który wykorzystywał AI Google do analizy nagrań z dronów. Co najmniej tuzin pracowników odszedł z pracy. Google mrugnął, odmówił odnowienia kontraktu i po cichu pozwolił mu wygasnąć w marcu 2019 roku.
Następnie pojawiły się stonowane zasady AI, obiecujące, że firma nie będzie budować broni ani narzędzi do inwigilacji naruszających normy międzynarodowe. Był to moment korporacyjnego sumienia, albo przynajmniej jego przekonująca imitacja.
Ten moment nie przetrwał drugiej administracji Trumpa. Krótko po wynikach wyborów 2024, Google zrewidowało te zasady AI i po cichu usunęło wyraźny zakaz prac nad bronią. Listkiem figowym okazało się, że można go prać w pralce.
Dlaczego zwrot o 180 stopni właśnie teraz?
Szczera odpowiedź to pieniądze i momentum. Google rozmieściło już swoją AI Gemini wśród około trzech milionów pracowników Pentagonu i posiada część kontraktu Joint Warfighting Cloud Capability wartego 9 miliardów dolarów. Wycofanie się z niejawnych prac oznaczałoby pozostawienie olbrzymiej sumy pieniędzy na stole, podczas gdy Microsoft, Amazon i OpenAI chętnie by ją przejęły.
Szef AI Pentagonu, Cameron Stanley, powiedział CNBC, że uzależnienie się od jednego modelu AI "nigdy nie jest dobrą rzeczą", przedstawiając podejście wielu dostawców jako strategiczne zabezpieczenie. Tłumaczenie: rozdaj kontrakty, rozłóż zależność i utrzymuj każdego dyrektora generalnego Big Tech na przyjacielskiej stopie.
Selektywna etyka czy tylko selektywny PR?
I tu robi się ciekawie. Według Tom's Hardware, Google jednocześnie wycofało się z osobnego programu rojów dronów wartego 100 milionów dolarów. Firma jest więc skłonna wytyczyć granicę, tyle że nie przy niejawnej AI dla Pentagonu.
Sugeruje to dwie rzeczy. Albo Google dysponuje precyzyjnymi, przemyślanymi ramami etycznymi, których nie zdecydowało się podzielić z opinią publiczną, albo improwizuje na bieżąco w zależności od tego, które kontrakty przyciągają najgorsze nagłówki. Zgadnijcie, co wydaje się bardziej prawdopodobne.
Dlaczego to ma znaczenie dla czytelników w Wielkiej Brytanii
Jeśli mieszkasz w Wielkiej Brytanii, kuszące jest, by wrzucić to do teczki "amerykański problem" i przejść dalej. Oprzyj się tej pokusie. Modele AI zasilające niejawne systemy wojskowe USA to te same modele ogólnego przeznaczenia, które są wplatane w twoją skrzynkę odbiorczą, twój telefon, twoje miejsce pracy i coraz częściej pracę domową twojego dziecka.
Granica między konsumencką AI a wojskową AI to wybór polityczny, a nie techniczny. Gdy ta granica się przesuwa, przesuwa się dla wszystkich. Brytyjskie zamówienia obronne w dużym stopniu opierają się na tych samych amerykańskich dostawcach, co oznacza, że decyzje podejmowane w Mountain View mają sposób na przenikanie do Whitehall.
Jest też kwestia precedensu. Gdy firma raz przekroczy granicę i odkryje, że cena akcji nie runęła, granica ta ma tendencję do pozostawania przekroczoną. Dzisiejszy "dowolny zgodny z prawem cel" staje się jutrzejszym punktem wyjścia.
Anthropic i niezręczny outsider
Poza namiotem siedzi Anthropic, które podobno odmówiło warunków kontraktu Pentagonu i zostało natychmiast oznaczone jako ryzyko łańcucha dostaw. Pojawiają się niezweryfikowane twierdzenia, że wojsko USA mimo to używało Claude'a od Anthropic w związku z konfliktem z Iranem, choć nie zostało to niezależnie potwierdzone i należy podchodzić do tego z ostrożnością.
Sam Trump publicznie zasugerował, że Anthropic "dobrze rokuje", co jest politycznym odpowiednikiem pukania w zegarek. Czy firma utrzyma swoje stanowisko, czy po cichu wynegocjuje powrót, to wątek poboczny, który warto obserwować.
Co z tego wynieść
Przesłanie Google dla swoich pracowników jest dość jasne. Era, w której dobrze zorganizowany list wewnętrzny mógł zmienić kierunek działania firmy, dobiegła końca. Projekt Maven był w 2018 roku. Nowy schemat działania to podziękowanie pracownikom za opinie, aktualizacja strony z zasadami AI i podpisanie kontraktu mimo wszystko.
Dla użytkowników praktyczny wniosek jest taki: przestańcie zakładać, że firma Big Tech, z której produktów korzystacie każdego dnia, podziela wasze wartości, albo że w ogóle ma stabilne wartości. Ich wartości to cokolwiek, czego aktualny klimat polityczny i kwartalne wyniki finansowe od nich wymagają.
Dla pracowników, którzy podpisali list, trudniejsze pytanie brzmi: co robić dalej. Historia sugeruje, że rezygnacje, przecieki i presja publiczna to jedyne narzędzia, które kiedykolwiek były w stanie poruszyć Google. Stanowcze memorandum, niestety, nie jest na tej liście.
Przeczytaj oryginalny artykuł na stronie źródłowej.
