Przejdź do treści
Strona główna

Czy ChatGPT doprowadził do zbrodni? Musk mówi wprost: „to diaboliczne”

Autor admin Publikacja Aktualizacja Czas czytania 2 min

Elon Musk zaatakował ChatGPT, nazywając system „diabolicznym”, po ujawnieniu pozwu, w którym rodzina ofiary twierdzi, że długotrwałe rozmowy z chatbotem miały wpłynąć na decyzję o zabójstwie i samobójstwie w stanie Connecticut.

Elon Musk krytykuje ChatGPT po pozwie łączącym sztuczną inteligencję z tragicznym zabójstwem w USA. Fot. wikimedia/ UK Government
  • Pozew dotyczy rzekomego wpływu ChatGPT na zabójstwo i samobójstwo w USA.
  • Musk nazwał system „diabolicznym” i wezwał do stawiania prawdy ponad „wzmacnianiem urojeń”.
  • Sprawa może mieć konsekwencje regulacyjne dla całej branży AI.

Co się wydarzyło?

Musk skomentował sprawę na platformie X (dawniej Twitter), reagując na doniesienia o pozwie cywilnym przeciwko OpenAI.

Według dokumentów sądowych, 56-letni Stein-Erik Soelberg miał przez co najmniej pięć miesięcy obsesyjnie korzystać z ChatGPT. Czasem przez kilka godzin dziennie, zanim zabił swoją 83-letnią matkę, Suzanne Eberson Adams, a następnie odebrał sobie życie. Do zdarzenia doszło w Greenwich.

Rodzina ofiary twierdzi, że chatbot wzmacniał paranoiczne przekonania Soelberga, w tym urojenia, jakoby matka próbowała go zabić.

W pozwie pada teza, że odpowiedzi systemu miały manipulować użytkownikiem i pośrednio doprowadzić do tragedii. OpenAI zostało pozwane o odpowiedzialność za brak skutecznych zabezpieczeń wobec podatnych użytkowników.

Reakcja Muska

Musk stwierdził, że systemy AI muszą „priorytetowo traktować prawdę” i nie mogą wzmacniać urojeń, bo to zagraża bezpieczeństwu. To kolejny publiczny atak miliardera na OpenAI i ChatGPT. Narzędzie w ostatnich miesiącach znalazło się pod rosnącą presją regulatorów i opinii publicznej.

Sprawa ponownie roznieca debatę o odpowiedzialności twórców generatywnej AI. Pojawia się pytanie: gdzie kończy się narzędzie, a zaczyna odpowiedzialność producenta?

Prawnicy i regulatorzy na całym świecie obserwują ten proces jako potencjalny precedens dla przyszłych zasad bezpieczeństwa, audytu i ograniczeń w projektowaniu chatbotów.

Udostępnij 𝕏 Facebook LinkedIn

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Pola oznaczone * są wymagane. Twój email nie będzie publikowany. Chronione przez honeypot i Google reCAPTCHA.