Czy ChatGPT doprowadził do zbrodni? Musk mówi wprost: „to diaboliczne”
Elon Musk zaatakował ChatGPT, nazywając system „diabolicznym”, po ujawnieniu pozwu, w którym rodzina ofiary twierdzi, że długotrwałe rozmowy z chatbotem miały wpłynąć na decyzję o zabójstwie i samobójstwie w stanie Connecticut.

- Pozew dotyczy rzekomego wpływu ChatGPT na zabójstwo i samobójstwo w USA.
- Musk nazwał system „diabolicznym” i wezwał do stawiania prawdy ponad „wzmacnianiem urojeń”.
- Sprawa może mieć konsekwencje regulacyjne dla całej branży AI.
Co się wydarzyło?
Musk skomentował sprawę na platformie X (dawniej Twitter), reagując na doniesienia o pozwie cywilnym przeciwko OpenAI.
Według dokumentów sądowych, 56-letni Stein-Erik Soelberg miał przez co najmniej pięć miesięcy obsesyjnie korzystać z ChatGPT. Czasem przez kilka godzin dziennie, zanim zabił swoją 83-letnią matkę, Suzanne Eberson Adams, a następnie odebrał sobie życie. Do zdarzenia doszło w Greenwich.
Rodzina ofiary twierdzi, że chatbot wzmacniał paranoiczne przekonania Soelberga, w tym urojenia, jakoby matka próbowała go zabić.
W pozwie pada teza, że odpowiedzi systemu miały manipulować użytkownikiem i pośrednio doprowadzić do tragedii. OpenAI zostało pozwane o odpowiedzialność za brak skutecznych zabezpieczeń wobec podatnych użytkowników.
Reakcja Muska
Musk stwierdził, że systemy AI muszą „priorytetowo traktować prawdę” i nie mogą wzmacniać urojeń, bo to zagraża bezpieczeństwu. To kolejny publiczny atak miliardera na OpenAI i ChatGPT. Narzędzie w ostatnich miesiącach znalazło się pod rosnącą presją regulatorów i opinii publicznej.
Sprawa ponownie roznieca debatę o odpowiedzialności twórców generatywnej AI. Pojawia się pytanie: gdzie kończy się narzędzie, a zaczyna odpowiedzialność producenta?
Prawnicy i regulatorzy na całym świecie obserwują ten proces jako potencjalny precedens dla przyszłych zasad bezpieczeństwa, audytu i ograniczeń w projektowaniu chatbotów.



