Rodzina 12-letniej Mayi Gebali, która została ciężko ranna podczas tragicznej strzelaniny w kanadyjskiej szkole, wniosła pozew przeciwko firmie OpenAI. Bliscy dziewczynki twierdzą, że spółka posiadała informacje wskazujące na planowany atak, lecz nie powiadomiła o tym organów ścigania. Sprawa wywołała szeroką debatę na temat odpowiedzialności firm technologicznych oraz roli sztucznej inteligencji w zapobieganiu przemocy.
- Bohaterska próba zatrzymania napastniczki
- Sprawczyni miała rozmawiać z chatbotem
- Pracownicy mieli dostrzec zagrożenie
- Drugie konto i dalsze planowanie ataku
- Stanowisko OpenAI
- Spotkanie z władzami Kanady
- Nowe procedury bezpieczeństwa
- Debata o odpowiedzialności firm technologicznych
- Rząd Kanady oczekuje konkretnych działań
- Sprawa może mieć globalne konsekwencje
Do ataku doszło 10 lutego w miejscowości Tumbler Ridge w Kanadzie. Był to jeden z najtragiczniejszych incydentów tego typu w historii kraju. W wyniku strzelaniny zginęło osiem osób, w tym pięcioro dzieci oraz matka sprawczyni. Kilka innych osób zostało poważnie rannych, wśród nich właśnie Maya Gebala.
Bohaterska próba zatrzymania napastniczki
Z dokumentów sądowych wynika, że 12-letnia Maya próbowała zablokować drzwi biblioteki szkolnej, aby uniemożliwić napastniczce wejście do środka. W trakcie tej próby została trzykrotnie postrzelona.
Kule trafiły dziewczynkę w szyję oraz głowę. Lekarze określili jej obrażenia jako katastrofalny uraz mózgu, który może mieć trwałe konsekwencje zdrowotne. Maya nadal przebywa w szpitalu, gdzie przechodzi kolejne operacje oraz rehabilitację.
Rodzina dziewczynki twierdzi, że gdyby odpowiednie służby zostały wcześniej powiadomione o planach sprawczyni, tragedii można było uniknąć.
Sprawczyni miała rozmawiać z chatbotem
Według pozwu napastniczka korzystała z ChatGPT przez kilka dni przed atakiem. Miała opisywać chatbotowi różne scenariusze przemocy z użyciem broni palnej.
Dokumenty sądowe wskazują, że sprawczyni traktowała system jako „zaufanego powiernika”, z którym omawiała swoje plany dotyczące zdarzenia z dużą liczbą ofiar.
Z zapisów wynika, że niektóre z tych rozmów zostały oznaczone przez pracowników firmy jako potencjalnie niebezpieczne.
Pracownicy mieli dostrzec zagrożenie
Według pozwu aż 12 pracowników OpenAI miało uznać wpisy użytkowniczki za wskazujące na bezpośrednie ryzyko poważnej przemocy wobec innych osób.
Wewnętrzne oznaczenia miały sugerować konieczność poinformowania organów ścigania w Kanadzie. Takie rozwiązanie zostało podobno zaproponowane w ramach wewnętrznych procedur bezpieczeństwa.
Autorzy pozwu twierdzą jednak, że propozycja powiadomienia policji została ostatecznie odrzucona.
Jedynym działaniem firmy miało być zablokowanie konta użytkowniczki w czerwcu 2025 roku.
Drugie konto i dalsze planowanie ataku
Według dokumentów sprawczyni nie zrezygnowała z korzystania z systemu po zablokowaniu pierwszego konta. Miała założyć kolejne konto i kontynuować rozmowy dotyczące przemocy z użyciem broni.
Zdaniem rodziny ofiary firma posiadała więc wiedzę o długotrwałym planowaniu ataku, jednak nie podjęła działań, które mogłyby zapobiec tragedii.
W pozwie wskazano, że brak reakcji ze strony firmy miał umożliwić kontynuowanie przygotowań do ataku.
Stanowisko OpenAI
Firma OpenAI wcześniej wyjaśniała, że nie powiadomiła policji, ponieważ rozmowy prowadzone przez użytkowniczkę nie spełniały progów uznania zagrożenia za wiarygodny plan przemocy.
Przedstawiciel spółki w oświadczeniu przekazanym mediom określił wydarzenia jako „niewyobrażalną tragedię”.
Firma podkreśliła jednocześnie, że współpracuje z władzami oraz organami ścigania w celu ulepszania procedur bezpieczeństwa.
Według OpenAI ocena ryzyka w takich przypadkach jest bardzo trudna, ponieważ wiele rozmów dotyczących przemocy może mieć charakter hipotetyczny lub literacki.
Spotkanie z władzami Kanady
Po tragedii w Tumbler Ridge przedstawiciele OpenAI rozpoczęli rozmowy z kanadyjskimi władzami.
4 marca dyrektor generalny firmy Sam Altman spotkał się online z kanadyjskim ministrem ds. sztucznej inteligencji Evanem Solomonem oraz premierem prowincji Kolumbia Brytyjska Davidem Eby.
Według doniesień medialnych Altman zobowiązał się do wprowadzenia zmian w procedurach zgłaszania potencjalnych zagrożeń.
Zapowiedział również przeprosiny wobec społeczności dotkniętej tragedią.
Nowe procedury bezpieczeństwa
W otwartym liście opublikowanym pod koniec lutego firma poinformowała o wprowadzeniu nowych rozwiązań mających zapobiegać podobnym sytuacjom w przyszłości.
Do najważniejszych zmian należą:
- zatrudnienie ekspertów z zakresu zdrowia psychicznego i analizy zachowań,
- wprowadzenie bardziej elastycznych zasad zgłaszania zagrożeń policji,
- ulepszenie systemów wykrywania prób omijania zabezpieczeń,
- utworzenie bezpośredniego kanału kontaktu z kanadyjskimi organami ścigania.
OpenAI przyznało jednocześnie, że według nowych zasad konto sprawczyni zostałoby zgłoszone policji.
Debata o odpowiedzialności firm technologicznych
Sprawa wywołała szeroką dyskusję o odpowiedzialności firm rozwijających sztuczną inteligencję.
Eksperci podkreślają, że systemy AI coraz częściej stają się miejscem, gdzie użytkownicy dzielą się swoimi emocjami, planami czy frustracjami. W takich sytuacjach pojawia się pytanie, czy firmy technologiczne powinny pełnić rolę pośredników w przekazywaniu informacji o potencjalnych zagrożeniach.
Jednocześnie zwraca się uwagę na kwestie prywatności oraz ryzyko nadmiernej inwigilacji użytkowników.
Rząd Kanady oczekuje konkretnych działań
Kanadyjski minister ds. sztucznej inteligencji Evan Solomon przyznał, że władze dostrzegają gotowość OpenAI do wprowadzenia zmian.
Jednocześnie podkreślił, że rząd oczekuje bardziej szczegółowego planu działań.
– Widzimy deklaracje poprawy procedur, ale nie zobaczyliśmy jeszcze konkretnego planu wdrożenia tych zmian – powiedział minister.
Sprawa może mieć globalne konsekwencje
Pozew rodziny Mayi Gebali może mieć znaczenie nie tylko dla samej firmy OpenAI, ale także dla całego sektora technologicznego.
Jeśli sąd uzna, że firmy rozwijające sztuczną inteligencję powinny aktywnie informować służby o potencjalnych zagrożeniach, może to doprowadzić do powstania nowych regulacji dotyczących działania systemów AI.
Dla wielu państw będzie to także impuls do opracowania bardziej szczegółowych zasad dotyczących bezpieczeństwa technologii cyfrowych.

