Przejdź do treści
Strona główna

Claude na wojnie? Anthropic mówi „nie” i idzie z USA do sądu

Anthropic idzie do sądu z rządem USA po konflikcie o wojskowe użycie Claude’a. Stawką są granice AI, autonomiczna broń i masowa inwigilacja.

Pentagon, budynek administracji wojskowej rządu USA. Budynek widziany jest z lotu ptaka.
Anthropic nie pozwolił wykorzystywać Claude podczas działań wojennych. Fot. pixabay
  • Anthropic, firma stojąca za Claude’em, stanie przed federalnym sądem w San Francisco. Dzieje się to po tym, jak Pentagon uznał ją za zagrożenie dla bezpieczeństwa narodowego.
  • Spór wybuchł, gdy spółka odmówiła zgody na nieograniczone wykorzystanie swojego AI m.in. w autonomicznej broni i masowej inwigilacji.
  • Anthropic twierdzi, że rząd USA sięgnął po wyjątkowo ciężką broń, wpisując firmę na czarną listę po tym, jak nie chciała zdjąć zabezpieczeń ograniczających wojskowe użycie Claude’a.

Według administracji Trumpa prywatna firma nie może narzucać armii własnych „czerwonych linii”. Według Anthropic państwo próbuje ukarać spółkę za to, że nie zgodziła się oddać AI do dowolnego użycia.

Najważniejsze jest to, że Anthropic wcale nie odcinał się od współpracy z wojskiem. Firma podkreśla, że już wcześniej wspierała Pentagon w takich obszarach jak analiza wywiadowcza, modelowanie i symulacje, planowanie operacyjne czy cyberoperacje.

Granica została postawiona gdzie indziej. A dokładniej przy pełnej swobodzie użycia Claude w systemach śmiercionośnej autonomicznej broni oraz przy masowej inwigilacji obywateli USA.

Rząd USA odpowiada. Firma zaprzecza

Rząd odpowiada brutalnie. Według administracji Trumpa, jeśli dostawca AI zachowuje kontrolę nad ograniczeniami modelu, to w środku kryzysu może próbować wpłynąć na działanie systemu.

W sądowych pismach Pentagon sugerował, że Anthropic mógłby wyłączyć technologię albo zmienić zachowanie modelu w trakcie operacji.

Firma temu zaprzecza i twierdzi, że po wdrożeniu Claude’a w infrastrukturze wojskowej nie ma żadnego tylnego wejścia, „kill switcha” ani możliwości zdalnego manipulowania systemem.

Miliardy dolarów strat dla Anthropic?

Stawka jest dużo większa niż jeden spór prawny. Reuters podaje, że wpisanie Anthropic na listę ryzyka może kosztować firmę miliardy dolarów. Pentagon już zaczął wygaszanie użycia Claude’a, choć część wojskowych i kontraktorów uważa to za kosztowne i operacyjnie bolesne.

Claude był mocno osadzony w środowisku wojskowym, a jego wymiana może oznaczać miesiące recertyfikacji i przebudowy narzędzi.

W praktyce ten proces dotyczy jednego pytania: kto naprawdę ma ustalać granice wojskowej AI: państwo, które chce pełnej swobody, czy firma technologiczna, która twierdzi, że pewnych zastosowań nie da się dziś bezpiecznie dopuścić.

I właśnie dlatego ta sprawa może stać się jednym z najważniejszych precedensów dla całej branży AI. To jest wniosek z obecnego przebiegu sporu i stanowisk obu stron.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Pola oznaczone * są wymagane. Twój email nie będzie publikowany. Chronione przez honeypot i Google reCAPTCHA.