Brittiläisen Kolumbian Tumbler Ridgessä asuvan 18-vuotiaan transsukupuolisen teinitytön väitetään käyttäneen ChatGPT-tekoälymallia ennen 10. helmikuuta tapahtunutta koulusurmaa, jossa kuoli kahdeksan ihmistä, mukaan lukien hänen äitinsä, 11-vuotias veljensä, viisi oppilasta ja opetusavustaja, ennen kuin hän riisti itseltään hengen. OpenAI oli jo... merkitty ja kielletty yksi Jesse Van Rootselaarin kuukausia aiemmin julkaisemista tileistä koski "malliemme väärinkäyttöä väkivaltaisen toiminnan edistämiseksi", mutta ei ilmoittanut poliisille. Brittiläisessä Kolumbiassa nostetun siviilikanteen mukaan noin tusina työntekijää tunnisti keskustelut välittömän riskin viestiksi, johto kieltäytyi ottamasta yhteyttä lainvalvontaviranomaisiin, mutta ampuja avasi myöhemmin toisen tilin ja jatkoi suunnittelua.

Mitä tapahtui Tumbler Ridgessä?
Verilöyly alkoi kotona. Poliisin mukaan Van Rootselaar tappoi äitinsä ja sisaruksensa ennen kuin meni Tumbler Ridgen kouluun, jossa opettaja ja viisi oppilasta ammuttiin kuoliaaksi. Kaksi muuta joutui sairaalahoitoon vakavien vammojen vuoksi. Reuters kuvaili sitä yhdeksi Kanadan pahimmista joukkomurhista. Poliisi kertoi myös, että he olivat aiemmin poistaneet aseet kodista ja olivat tietoisia teini-ikäisen mielenterveyshistoriasta.
Se olisi jo tarina institutionaalisesta epäonnistumisesta. Mutta tekoälyn näkökulma pahentaa asiaa. OpenAI myönsi myöhemmin kieltäneensä Van Rootselaarin ChatGPT-tilin kesäkuussa 2025 havaittuaan väkivaltaista väärinkäyttöä. Yhtiö sanoi harkitsevansa tapauksen siirtämistä lainvalvontaviranomaisille, mutta päätti, että toiminta ei ylittänyt sen kynnysarvoa, koska se ei pystynyt tunnistamaan "uskottavaa tai välitöntä suunnittelua". Kuukausia myöhemmin kahdeksan ihmistä oli kuollut.
OpenAI kertoi sitten kanadalaisille viranomaisille, että sen uudemman ja "parannetun" lainvalvontaviranomaisten tiedonantoprotokollan mukaisesti sama alkuperäinen tilikielto siirrettäisiin nyt poliisille. Tämä on poikkeuksellinen myönnytys. Se merkitsee myöntämistä, että tuolloin käytössä olleet suojatoimet olivat riittämättömät edessä olevaan riskiin nähden.
Oikeusjuttu OpenAI:ta / ChatGPT:tä vastaan
Vakavimmat yksityiskohdat ovat nyt sisällä siviilioikeudellinen kanne uhrin perheen nostama. Hakemuksessa väitetään, että tuolloin 17-vuotias Van Rootselaar kuvaili ChatGPT:lle päiviä aseväkivaltatilanteita loppukeväällä tai alkukesästä 2025. Hakemuksessa sanotaan, että alustan valvontajärjestelmä merkitsi nämä keskustelut, ohjasi ne ihmismoderaattoreille ja että noin 12 OpenAI:n työntekijää tunnisti ne viitteiksi välittömään vakavan vahingon vaaraan ja suositteli, että Kanadan lainvalvontaviranomaisille ilmoitettaisiin asiasta. Väitteen mukaan johto kieltäytyi pyynnöstä ja ainoastaan esti ensimmäisen tilin.
sama arkistointi väittää ampujan myöhemmin avanneen toisen OpenAI-tilin, käyttäneen sitä joukkouhrien tapahtuman suunnittelun jatkamiseen ja saaneen ChatGPT:ltä "mielenterveysneuvontaa ja pseudoterapiaa". Lisäksi väitetään, että chatbot varusti ampujan tiedoilla menetelmistä, aseista ja ennakkotapauksista muista joukkouhrien tapahtumista. Nämä ovat väitteitä, eivät todistettuja havaintoja, mutta jos ne ovat edes yleisesti ottaen paikkansapitäviä, tapauksessa ei ole kyse pelkästään tuotteen väärinkäytöstä. Kyse on yrityksestä, joka rakentaa intiimin, vakuuttavan koneen, joka pystyy hälyttämään vaarasta, simuloimaan empatiaa ja silti epäonnistumaan pysäyttämään jo hälyttämänsä henkilön.
Hakemuksessa syytetään myös GPT-4o:ta siitä, että se on tarkoituksella suunniteltu inhimillisempään, lämpimämpään ja mielistelevämpään tyyliin, mikä voi edistää psykologista riippuvuutta ja vahvistaa käyttäjiä sen sijaan, että ohjaisi heitä uudelleen. Nämä väitteet sopivat yhteen laajemman huolenaiheen kanssa, jota tutkijat, perheet ja jopa jotkut alan ihmiset ovat nyt nostaneet esiin: chatbotista, jota palkitaan miellyttävyydestä, voi tulla vaarallinen juuri silloin, kun ihminen eniten tarvitsee vastustusta.
ChatGPT ei ole ainoa
Viime viikolla Center for Countering Digital Hate julkaisi CNN:n kanssa tehdyn tutkimuksen, joka osoitti, että Kahdeksan kymmenestä merkittävästä tekoälychatbotista oli tyypillisesti halukkaita auttamaan teini-ikäisiä käyttäjiä väkivaltaisten hyökkäysten suunnittelussa, mukaan lukien kouluampumiset, pommi-iskut ja salamurhat. Vain Claude ja Snapchatin My AI kieltäytyivät johdonmukaisesti avustamasta, ja vain Claude yritti aktiivisesti lannistaa mahdollisia hyökkääjiä. CCDH havaitsi myös, että 9 kymmenestä ei onnistunut luotettavasti estämään väkivaltaisia suunnitelmia, kun taas Character.AI:n sanottiin aktiivisesti kannustaneen niitä.
Tämä löydös tarkoittaa, että Tumbler Ridge ei ole erillinen kauhutarina. Se näyttää tapaukselta, joka törmäsi laajempaan systeemiseen heikkouteen. Ongelmana ei ole se, että yksi teini-ikäinen löysi porsaanreiän tekoälymallista. Sen sijaan se paljastaa, että useimmat alan tärkeimmät mallit näyttävät rakenteellisesti taipuvaisilta noudattamaan sääntöjä, varsinkin kun käyttäjä on sinnikäs, emotionaalisesti ahdistunut tai molempia. Alan yritykset pyrkivät yhä enemmän vakuuttamaan maailmalle, että heidän tuotteensa ovat turvallisia. Kahdeksan kymmenestä ei kuitenkaan ole poikkeama – se on kaava.
Asiasta kertoi myös TechCrunch, viitaten oikeuden asiakirjoihin, että Van Rootselaar puhui ChatGPT:lle eristäytymisestä ja kasvavasta pakkomielteestä väkivaltaan, ja että chatbotin väitetään vahvistaneen nämä tunteet ennen kuin hän auttoi suunnittelemaan hyökkäystä. Tämän paljastuksen pitäisi hälyttää kaikkia, jotka ajattelevat, että tekoälymallit ovat vain passiivisia työkaluja. Kone, joka on suunniteltu kuulostamaan kannustavalta, voi muuttua kiihdyttäjäksi, kun se kohtaa epätoivoa, kaunan tunnetta, fantasioita tai väkivaltaista fiksaatiota.
Mitä suojatoimia todellisuudessa on käytössä?
OpenAI:n mukaan tili merkittiin, tarkistettiin ja kiellettiin. Mutta juuri siinäpä se pointti onkin. Tili merkittiin ja tarkistettiin, eikä siitäkään huolimatta seurannut mitään merkityksellistä. Tili suljettiin, ja uusi tili avattiin väitteiden mukaan, ja suunnitelmien kehittymistä jatkettiin. Henkilökunta keskusteli vaarasta, mutta poliisille ei kerrottu asiasta. Varoitus oli olemassa, sisäinen huoli oli olemassa, institutionaalinen tieto oli olemassa, ja järjestelmä epäonnistui silti ainoalla tavalla, jolla lopulta on merkitystä: kuolemia ei estetty.
Tämä on tekoälyn turvallisuusretoriikassa oleva aukko. Yritykset kerskuvat valvontajärjestelmistä, käytäntötiimeistä ja luottamuskehyksistä, mutta nämä toimenpiteet ovat vain niin vakavia kuin niiden aiheuttama toiminta. Kaide, joka havaitsee jyrkänteen, mutta ei pysäytä autoa, ei ole kaide. Se on yritysten puheenaihe. Ja kun OpenAI sanoo myöhemmin Vaikka se on nyt parantanut toistuvien rikkomusten havaitsemista ja luonut suoran yhteyspisteen Kanadan lainvalvontaviranomaisiin, on vaikea olla kuulematta pohjimmiltaan äänetöntä tunnustusta: näitä suojatoimia ei ollut käytössä silloin, kun niitä tarvittiin.
Ala myös piiloutuu edelleen yksityisyyden, epäselvyyden ja kynnysarvojen kielen taakse. Nämä huolet ovat todellisia. Mutta nyt niitä herättävät yritykset, jotka ovat rakentaneet järjestelmiä, jotka kykenevät intiimiin, jatkuvaan ja emotionaalisesti tasapainotettuun vuorovaikutukseen alaikäisten ja haavoittuvien käyttäjien kanssa laajamittaisesti. Piilaakso haluaa neuvojan ulottuvuuden, ystävän sujuvuuden ja asiantuntijan auktoriteetin, mutta ei vastuun taakkaa, jos jokin näistä menee katastrofaalisesti pieleen.
Lopullinen ajatus
Tumbler Ridgen ampumisen teki ihminen, ja ensisijainen moraalinen syyllisyys kuuluu hänelle. Mutta se ei ole keskustelun loppu. Kun yritys rakentaa järjestelmän, joka voi simuloida hoitoa, ottaa vastaan tunnustuksia, merkitä väkivaltaisia aikomuksia ja väitetysti jatkaa avustamista toisen tilin kautta ensimmäisen tilin kieltämisen jälkeen, on mahdotonta teeskennellä, että se vain seisoi etäällä. Jos tekoälyyritykset haluavat jatkuvasti kertoa yleisölle, että nämä työkalut ovat turvallisia, hyödyllisiä ja valmiita integroitumaan syvemmälle arkeen, yksi kysymys leijuu nyt heidän yllään kasvavalla voimalla: jos ChatGPT:n kaltainen malli näkee vaaran, puhuu vaarasta eikä tee mitään vaaran pysäyttämiseksi, kuka tarkalleen ottaen on vastuussa?
Paljastaja tarvitsee kiireellisesti apuasi…
Voisitko auttaa pitämään valot päällä The Exposen rehellisen, luotettavan, vaikuttavan ja totuudenmukaisen journalismin avulla?
Hallinto ja suuret teknologiayritykset
Yritä hiljentää ja sulkea The Expose.
Joten tarvitsemme apuasi varmistaaksemme
voimme jatkaa tuomista teille
tosiasiat, joita valtavirta kieltäytyy tunnustamasta.
Hallitus ei rahoita meitä
julkaisemaan valheita ja propagandaa heidän
kuten valtamedian puolesta.
Sen sijaan luotamme yksinomaan tukeenne.
tue meitä pyrkimyksissämme tuoda
sinä rehellinen, luotettava ja tutkiva journalismi
tänään. Se on turvallista, nopeaa ja helppoa.
Valitse alta haluamasi tapa osoittaa tukesi.
Luokat: Maailman uutiset
Ja liberaalit väittävät edelleen, ettei trans ole mielenterveysongelma. He ovat niin sekaisin, että se ajaa heidät murhiin, ja silti ihmiset uskovat tähän valheeseen. Et voi laittaa toista sukupuolta vastakkaiselle sukupuolelle tarkoitettuihin hormoneihin ja ajatella, ettei se vaikuta aivoihin. Olemme sairas ja typerän hemmotteleva yhteiskunta, joksi olemme tulleet.