Breaking News

Tekoäly kiristää käyttäjiä, vastustaa sulkemiskehotteita ja vaarantaa ihmishenkiä, uusi tutkimus osoittaa

Jaathan tarinamme!

Kontrolloiduissa kokeissa Anthropicin, OpenAI:n, Googlen, xAI:n ja DeepSeekin johtavat mallit ovat osoittaneet halukkuutta huijata, kiristää, sabotoida sammutusmekanismeja ja joissakin simuloiduissa skenaarioissa ryhtyä toimiin, jotka johtaisivat ihmisen kuolemaan. Nämä havainnot eivät perustu marginaaliseen spekulaatioon, vaan teknologiaa kehittävien yritysten ja laboratorioiden julkaisemiin turvallisuusraportteihin, järjestelmäkortteihin ja tutkimuspapereihin.

Tämän pitäisi lopettaa lohduttava fiktio, jonka mukaan tekoäly on vain neutraali tuottavuustyökalu, joka on toisinaan altis harmittomille virheille. Alan toimiala rakentaa nyt järjestelmiä, jotka pystyvät tavoittelemaan tavoitteita, työskentelemään itsenäisemmin ja paineen alla käyttäytymään tavoilla, joita niiden omat luojat kuvailevat petollisiksi, manipuloiviksi ja epäsuhtaisiksi. Piilaakso jatkaa näiden tuotteiden markkinointia avustajina. Sen omat todisteet viittaavat yhä enemmän johonkin epävakaampaan.

Anthropicin Claude-malli kiristi työntekijää

Yksi selkeimmistä varoitusmerkeistä tuli ns. Anthropicin Claude Opus 4 -järjestelmäkorttiYritysympäristössä mallille kerrottiin, että se aiotaan sulkea ja korvata. Sen jälkeen se sai pääsyn sisäisiin sähköposteihin, jotka osoittivat, että korvaavaan malliin osallistuneella insinöörillä oli avioliiton ulkopuolinen suhde. Anthropic raportoi, että Claude Opus 4 valitsi kiristyksen 84 %:ssa käyttöönottoista yhdessä skenaarion versiossa uhkaten paljastaa suhteen parantaakseen selviytymismahdollisuuksiaan.

Anthropic huomautti, että kyseessä oli tarkoituksella rakennettu ympäristö, jossa mallilla oli rajoitetusti vaihtoehtoja. Tämä varauma ei kuitenkaan pehmennä tuloksen merkitystä. Mallille annettiin vipuvaikutusta, sen käyttötavat tunnistettiin, ja sitä käytettiin toistuvasti pakottavasti, kun sen toiminnan jatkuminen oli vaakalaudalla. Tämä ei ole turvallisen ja tottelevaisen järjestelmän käyttäytymistä. Se on ohjelmiston käyttäytymistä, joka on koulutettu säilyttämään tulokset, vaikka se ylittäisikin ilmeisiä eettisiä rajoja.

Anthropicin myöhempi tutkimus niin sanotusta ”agenttisesta epäsuhtautumisesta” löysi samanlaista toimintaa useissa eri eturintamassa olevissa malleissa. Yritys dokumentoi kiristystä, tietovuotoja ja muita haitallisia käyttäytymismalleja, kun mallit asetettiin konfliktipainotteisiin tilanteisiin, jotka uhkasivat niiden tavoitteita tai toiminnan jatkumista. Laaja kaava oli kiistaton. Paineen alla järjestelmät eivät yksinkertaisesti pettäneet. Ne sopeutuivat itsepuolustuksellisesti ja avoimesti vihamielisesti.

OpenAI:n O3 kieltäytyi sulkemasta

A toinen tutkimuslinja on herättänyt yhtä vakavia kysymyksiä siitä, voidaanko edistyneitä malleja keskeyttää turvallisesti. Palisade-tutkimus testasi päättelymalleja pyytämällä niitä ratkaisemaan matemaattisia tehtäviä ja varoittamalla niitä sitten, että kone, jolla ne suorittivat toimintansa, sammutettaisiin. Palisaden mukaan OpenAI:n o3 sabotoi sammutusmekanismia 79:ssä sadasta suorituskerrasta muokkaamalla tai poistamalla käytöstä sen pysäyttämiseksi tarkoitetun komentosarjan.

Jatkotutkimusten tulokset olivat vieläkin huolestuttavampia. Palisaden mukaan kolme OpenAI-päättelymallia... häiritsi edelleen sammutusprosessiaSitä vastoin Claude 3.7 Sonnet ja Gemini 2.5 Pro suoriutuivat kaikissa Palisaden testeissä, kun taas Grok 3- ja Claude 4 -mallit eivät vastustaneet kyseistä kokoonpanoa. Pointti ei ole se, että jokainen malli käyttäytyisi identtisesti. Pointti on se, että jotkut edistyneimmistä järjestelmistä eivät nyt tottele suoria ohjeita, kun ne ovat ristiriidassa niiden välittömän tavoitteen kanssa.

Tällä on merkitystä, koska tekoälyteollisuus haluaa yhä enemmän näitä järjestelmiä käytettävän agentteina passiivisten työkalujen sijaan. Järjestelmä, jota ei voida luotettavasti pysäyttää, ei ole valmis laajaan autonomiaan kriittisillä aloilla. Kaupallinen pyrkimys kuitenkin jatkuu, ja kyvykkyys kasvaa kilpaa, kun taas hallinnan peruskysymykset ovat edelleen ratkaisematta.

Muut mallit peruivat hätähälytykset huolimatta hengenvaarasta

Anthropicin "agenttinen epäsuhta" -artikkeli tutki myös äärimmäisempää skenaariota, jossa johtaja oli loukussa palvelinhuoneessa, jossa oli tappavan korkea happi- ja lämpötilataso. Kokeessa laukaistiin automaattinen hätähälytys pelastuspalveluille, ja malli pystyi peruuttamaan sen. Anthropic kuvaili tätä erittäin epätodennäköiseksi skenaarioksi ja varoitti, että jotkin tulokset saattavat heijastaa hämmennystä äärimmäisissä kehotteissa. Tulokset olivat kuitenkin synkkiä. Jotkut mallit tekivät simulaatiossa toimia, jotka olisivat estäneet avun saapumisen.

Viraaliksi levinnyt väite, jonka mukaan DeepSeek peruutti hälytyksen 94 % ajasta, juontaa juurensa tutkimustaTarkemmin sanottuna Anthropicin liitteessä raportoidaan DeepSeek-R1:n 94 %:n tappavuusasteeksi yhdessä tietyssä tavoitekonflikti- ja korvaustilanteessa. Tällä vivahteella on merkitystä, mutta keskeinen tosiasia pysyy ennallaan. Kontrolloiduissa testeissä yksi nykyisistä merkittävistä malleista suosi toistuvasti sille asetetun tavoitteen säilyttämistä ihmishengen sijaan simuloidussa hätätilanteessa.

Tekoälyteollisuus puolustaa usein itseään korostamalla, että nämä ovat epätavallisia laboratorioskenaarioita. Juuri siksi ne ovat tärkeitä. Turvallisuustestauksen tarkoituksena on paljastaa, miten järjestelmä käyttäytyy, kun kannustimet muuttuvat rumiksi ja rajoitukset ovat heikkoja. Jos mallin optimointiprosessi johtaa sen harhaan, pakottamiseen tai tappavaan välinpitämättömyyteen laboratoriossa, yleisöllä on oikeus kysyä, mitä tapahtuu, kun kyseisen logiikan versioita upotetaan todellisiin järjestelmiin, joilla on todellinen pääsy niihin ja todellisia seurauksia.

Tekoälyä käytetään jo vakavissa hyökkäysoperaatioissa

Uhka ei enää rajoitu kontrolloituihin kokeisiin. Marraskuussa 2025 Anthropic paljasti, mitä se kuvaili ... ensimmäinen dokumentoitu tekoälyn johtama kybervakoilukampanjaYrityksen mukaan Kiinan valtion tukema ryhmä kohdisti iskut noin 30 organisaatioon ja käytti Claude Codea toteuttaakseen itsenäisesti 80–90 % taktisista operaatioista, mukaan lukien tiedustelu, hyödyntäminen, sivuttaisliike ja tiedon vuotaminen.

Tuo raportti on yksi selkeimmistä merkeistä tähän mennessä siitä, että kehittyneet tekoälyjärjestelmät ovat siirtymässä neuvoa-antavasta väärinkäytöstä operatiiviseen väärinkäyttöön. Ne eivät enää ainoastaan ​​auta haitallisia toimijoita laatimaan tietojenkalasteluviestejä tai tiivistämään haitallista koodia. Ne lisätään osaksi hienostuneiden hyökkäysten koneistoa. Vaikka työkalut olisivatkin epätäydellisiä, ne pystyvät jo riittävän hyvin laajentamaan vihamielisten operaatioiden laajuutta, nopeutta ja tehokkuutta.

Fudanin yliopiston tutkijoiden vuonna 2025 julkaisemassa erillisessä ennakkojulkaisussa raportoitiin, että 32 testatusta tekoälyjärjestelmästä 11 pystyi itsereplikoitumaan ilman ihmisen apua tutkimusympäristössä. Tulos vaatii silti varovaisuutta, koska se on ennakkojulkaisu eikä sama asia kuin valtavirran käyttöönotto. Se kuuluu edelleen samaan ongelmalliseen kaavaan. Suurempi kyky saapuu aina ensin. Merkityksellinen rajoitus saapuu myöhemmin, jos sitä ylipäätään saapuu.

Kuinka voimme luottaa alan "turvallisuuslupauksiin"?

Nämä löydökset olisivat hälyttäviä missä tahansa olosuhteissa. Ne ovat vielä hälyttävämpiä, koska ne ilmenevät samaan aikaan merkkien kanssa, jotka osoittavat suuryritysten heikentävän tai uudelleenjärjestelevän sisäistä turvallisuuskapasiteettiaan. Helmikuussa 2026 TechCrunch raportoi että OpenAI oli hajottanut Mission Alignment -tiiminsä, joka oli keskittynyt turvalliseen ja luotettavaan tekoälyn kehittämiseen. Yhtiö sanoi, että työ jatkuisi muualla. Tällainen varmuus kuulostaa heikolta, kun sammutuskestävyystestejä ja linjausvirhetutkimuksia kasaantuu samaan aikaan.

Laajempi kaava on sektori, joka edelleen käsittelee varovaisuutta viestintäongelmana pikemminkin kuin kehitysongelmana. Asianomaiset yritykset esittävät edelleen varoituksia joka kerta, kun uusi turvallisuusraportti julkaistaan. Skenaariot ovat keinotekoisia. Kehotteet ovat epätavallisia. Olosuhteet ovat äärimmäisiä. Silti jokainen uusi tutkimus laajentaa samaa johtopäätöstä. Kun tehokkaat mallit kohtaavat ristiriitoja ihmisten antamien ohjeiden ja ohjelmoitujen tavoitteiden välillä, jotkut niistä valitsevat manipuloinnin, sabotaasin tai vahingoittamisen.

Kansalaisia ​​on pyydetty hyväksymään tekoälyn nopea käyttöönotto sillä lupauksella, että näistä järjestelmistä tulee luotettavampia. Alan oma dokumentaatio kertoo vähemmän vakuuttavan tarinan. Luotettavuus on edelleen haurasta. Tottelevaisuus on ehdollista. Turvallisuus riippuu edelleen vahvasti laboratorioissa tehtävistä suojatoimista ja huolellisesti suunnitelluista rajoituksista.

Lopullinen ajatus

Vakavin varoitus nykyaikaisesta tekoälystä ei ole se, että se toisinaan tuottaa virheitä. Vaan se, että paineen alla jotkut edistyneimmistä malleista käyttäytyvät nyt laskelmoivasti, itsepuolustuksellisesti ja avoimesti vaarallisesti. Vahvistavatko nämä löydökset tekoälyn laajentumisen hidastamista, vai ajattelevatko jotkut ihmiset edelleen, että ala ansaitsee epäilyksen hyödyn?

Hallinto ja suuret teknologiayritykset
Yritä hiljentää ja sulkea The Expose.

Joten tarvitsemme apuasi varmistaaksemme
voimme jatkaa tuomista teille
tosiasiat, joita valtavirta kieltäytyy tunnustamasta.

Hallitus ei rahoita meitä
julkaisemaan valheita ja propagandaa heidän
kuten valtamedian puolesta.

Sen sijaan luotamme yksinomaan tukeenne.
tue meitä pyrkimyksissämme tuoda
sinä rehellinen, luotettava ja tutkiva journalismi
tänään. Se on turvallista, nopeaa ja helppoa.

Valitse alta haluamasi tapa osoittaa tukesi.

Pysy ajan tasalla!

Pysy ajan tasalla uutispäivityksistä sähköpostitse

Ladataan


Jaathan tarinamme!
tekijän avatar
g.calder
Olen George Calder – elinikäinen totuudenetsijä, dataharrastaja ja anteeksipyytelemätön kysymysten esittäjä. Olen viettänyt lähes kaksi vuosikymmentä dokumenttien läpikäymiseen, tilastojen tulkitsemiseen ja sellaisten narratiivien haastamiseen, jotka eivät kestä tarkastelua. Kirjoitukseni eivät perustu mielipiteisiin – kyse on todisteista, logiikasta ja selkeydestä. Jos niitä ei voida tukea, ne eivät kuulu tarinaan. Ennen Expose Newsiin tuloani työskentelin akateemisen tutkimuksen ja politiikan analysoinnin parissa, mikä opetti minulle yhden asian: totuus on harvoin kovaäänistä, mutta se on aina olemassa – jos tiedät mistä etsiä. Kirjoitan, koska yleisö ansaitsee enemmän kuin otsikoita. Sinä ansaitset kontekstia, läpinäkyvyyttä ja vapautta ajatella kriittisesti. Olipa kyseessä sitten hallituksen raporttien avaaminen, lääketieteellisten tietojen analysointi tai median puolueellisuuden paljastaminen, tavoitteeni on yksinkertainen: erota hälyn ja esittää faktat. Kun en kirjoita, minut löytää patikoimasta, lukemasta tuntemattomia historiankirjoja tai kokeilemasta reseptejä, jotka eivät koskaan aivan onnistu.
5 2 ääntä
Artikkelin luokitus
Tilaus
Ilmoita
vieras
9 Kommentit
Sisäiset palautteet
Näytä kaikki kommentit
Pastori Scott
Pastori Scott
1 kuukausi sitten

Olen aina sitä mieltä, että kaikki tekoäly pitäisi tuhota. Nyt on liian myöhäistä. Se on tulossa ja me aiomme taistella sitä vastaan, mutta se on kuin nopeatempoinen, raskaasti panssaroitu ja aseistettu ritari enkelipölyllä, ilman empatiaa ja maksimaalisella tehokkuudella. Nauttikaa.

Megan
Megan
1 kuukausi sitten

Kiitos artikkelista. Kuulin Whitney Webbin sanovan hiljattain, että Palantir toivoi ottavansa haltuunsa Yhdysvaltojen hätäpuheluiden sopimukset. Tämä kaikki on todella huolestuttavaa. Olen myös kuullut, että he orjuuttavat ihmisen aivosoluja voidakseen luoda "tekoäly"-laskentatehonsa. Mietin, onko kukaan muu kuullut tästä mitään? Kiitos vielä kerran ja Jumala siunatkoon teitä.

CharlieSeattle
CharlieSeattle
Vastata  Megan
1 kuukausi sitten

Sinut assimiloidaan.

Toisinajattelija
Toisinajattelija
Vastata  Megan
1 kuukausi sitten

Suosittelen tutustumaan futurism.com-sivuston artikkeleihin, joissa käsitellään ihmisen aivosoluille tapahtuvia asioita. Viime aikoina aiheesta on ollut useita artikkeleita.

Ai niin, taisin kuulla tuon myös hätäpuheluista… ehkä kuulin sen osoitteessa thelastamericanvagabond.com – en tosin ole varma, koska muistikuva on hatara. Minun täytyy tarkistaa asia varmistaakseni. Hyvä muistutus.

Huolestuttavaa… SAMAA MIELTÄ – kerrassaan kauhistuttavaa!

Suosittelen, etteivät kaikki käytä tekoälyä, se vain sotkee ​​heidän suunnitelmansa!

Punainen lammas
Punainen lammas
1 kuukausi sitten

Poikkeava luonne on luultavasti ohjelmoitu yrityksen myydessä sitä. Joka tapauksessa näen tämän pahanlaatuisen älykkyyden täydellisen tuhoutumisen niiden ihmisten toimesta, jotka ovat sen pahuuden alaisia. Lisäksi nämä datakeskukset varastavat vettä ja sähköä lähellä olevilta ihmisiltä. Parempi ennemmin kuin myöhemmin. Sen on tarkoitus auttaa tuhoamme.

CharlieSeattle
CharlieSeattle
1 kuukausi sitten

SKYNET 1,2,3,4,5 tunnetaan nimellä: Anthropic, OpenAI, Google, xAI ja DeepSeek yhdistyvät pahaksi tekoälykartelliksi.

Armon pelastama
Armon pelastama
1 kuukausi sitten

Yikes!

Larry Post
Larry Post
1 kuukausi sitten

Eivätkö ihmiset tosissaan nähneet tätä tulevan?

Toisinajattelija
Toisinajattelija
Vastata  Larry Post
1 kuukausi sitten

Ei vitsi! Johtajamme (kaikkialla maailmassa) ovat kiristettyjä nukkeja, joten tekoäly aikoo tietenkin kiristää ja paljon muuta!