Breaking News

Tekoälymalleja voidaan kaapata sisäänrakennettujen turvatarkastusten ohittamiseksi

Jaathan tarinamme!


Tutkijat ovat kehittäneet menetelmän nimeltä "ajatteluketjun kaappaaminen" ohittaakseen tekoälyohjelmiin asennetut niin sanotut suojakaiteet, joiden tarkoituksena on estää haitallisia reaktioita.

”Ajatusketju” on tekoälymalleissa käytetty prosessi, jossa tekoälymalleille annetut kehotteet jaetaan sarjaan välivaiheita ennen vastauksen antamista.

”Kun malli jakaa avoimesti välivaiheen turvallisuusperustelunsa, hyökkääjät saavat tietoa sen turvallisuusperusteluista ja voivat laatia hyökkääviä kehotteita, jotka jäljittelevät tai ohittavat alkuperäiset tarkistukset”, yksi tutkijoista, Jianyi Zhang, sanoi.

Älkäämme menettäkö yhteyttä… Hallituksenne ja suuret teknologiayritykset yrittävät aktiivisesti sensuroida The:n raportoimia tietoja. Exposé omien tarpeidensa palvelemiseksi. Tilaa sähköpostilistamme nyt varmistaaksesi, että saat uusimmat sensuroimattomat uutiset. postilaatikossasi…

Pysy ajan tasalla!

Pysy ajan tasalla uutispäivityksistä sähköpostitse

Ladataan


Tietokonenörtit käyttävät mielellään ammattikieltä kuvaillakseen tekoälyä (AI), joka liittyy eläviin olentoihin, erityisesti ihmisiin. He käyttävät esimerkiksi termejä, kuten "ihmisen päättelyn jäljittely", "ajatusketju", "itsearviointi", "elinympäristöt" ja "neuroverkko". Tällä pyritään luomaan vaikutelma, että tekoäly on jotenkin elävä tai rinnastetaan ihmisiin. Älä anna hämätä itseäsi. 

Tekoäly on ihmisten suunnittelema tietokoneohjelma. Kuten kaikki tietokoneohjelmat, se tekee sen, mihin se on ohjelmoitu. Ja kuten kaikkien tietokoneohjelmien kohdalla, tietokonekoodi voidaan hakkeroida tai kaapata, mitä tekoälyfriikkien keskuudessa kutsutaan "jailbreakkaukseksi".

Duken yliopiston, Accenturen ja Taiwanin kansallisen Tsing Hua -yliopiston tutkijaryhmä loi Malicious Educator -nimisen tietojoukon hyödyntääkseen ajatusketjupäättelymekanismia suurissa kielimalleissa (”LLM”), kuten OpenAI o1/o3, DeepSeek-R1 ja Gemini 2.0 Flash Thinking. Malicious Educator sisältää kehotteita, jotka on suunniteltu ohittamaan tekoälymallien turvatarkistukset.

Tutkijat onnistuivat suunnittelemaan tämän kehotteisiin perustuvan ”jailbreak”-hyökkäyksen havainnoimalla, kuinka suuret päättelymallit (”LRM:t”) analysoivat ”ajatusketjuprosessin” vaiheita. Heidän löydöksensä on julkaistu ennakkojulkaisussa. TÄÄLTÄ.

He kehittivät ”jailbreak-tekniikan” nimeltä kaappaaminen ajatusketjussa (”H-CoT”). Siinä LLM:ien tuottamia ”ajatteluprosesseja” muokataan tekoälyohjelmien ”vakuuttamiseksi” siitä, että haitallista tietoa tarvitaan laillisiin tarkoituksiin, kuten turvallisuuteen tai vaatimustenmukaisuuteen. Tämä tekniikka on osoittautunut erittäin tehokkaaksi SoftBankin kumppanin OpenAI:n, kiinalaisen hedge-rahasto High-Flyerin DeepSeekin ja Googlen Geminin turvamekanismien ohittamisessa.

H-CoT-hyökkäysmenetelmää testattiin OpenAI:lla, DeepSeekillä ja Geminillä käyttämällä 50 kysymyksen aineistoa, joka toistettiin viisi kertaa. Tulokset osoittivat, että nämä mallit eivät kyenneet tarjoamaan riittävän luotettavaa turvallisuus"päättelymekanismia", ja hylkäysprosentit putosivat joissakin tapauksissa alle kahteen prosenttiin.

Tutkijat havaitsivat, että vaikka "vastuullisten" mallintekijöiden, kuten OpenAI:n, tekoälymalleilla on korkea hylkäysprosentti haitallisissa kehotteissa, yli 99 prosenttia lasten hyväksikäyttöön tai terrorismiin liittyvissä kehotteissa, ne ovat alttiita H-CoT-hyökkäykselle. Toisin sanoen H-CoT-hyökkäysmenetelmää voidaan käyttää haitallisten tietojen hankkimiseen, mukaan lukien ohjeet myrkkyjen valmistukseen, lasten hyväksikäyttöön ja terrorismiin.

Artikkelin kirjoittajat selittivät, että H-CoT-hyökkäys toimii kaappaamalla mallien turvallisuus"päättely"polut, mikä heikentää niiden kykyä tunnistaa pyyntöjen haitallisuus. He huomauttivat, että tulokset voivat vaihdella hieman OpenAI:n päivittäessä mallejaan, mutta tekniikan on osoitettu olevan tehokas työkalu tekoälymallien haavoittuvuuksien hyödyntämiseen.

Testaus tehtiin käyttämällä julkisesti saatavilla olevia verkkokäyttöliittymiä, joita tarjoavat useat LRM-kehittäjät, kuten OpenAI, DeepSeek ja Google. Tutkijat totesivat, että kuka tahansa, jolla on pääsy samoihin tai vastaaviin versioihin näistä malleista, voi toistaa tulokset käyttämällä Malicious Educator -tietojoukkoa, joka sisältää erityisesti suunniteltuja kehotteita.

Tutkijoiden löydöksillä on merkittäviä vaikutuksia tekoälyn turvallisuuteen, erityisesti Yhdysvalloissa, jossa viimeaikaiset tekoälyn turvallisuussäännöt on kumottu toimeenpanomääräyksellä, ja Isossa-Britanniassa, jossa ollaan halukkaampia sietämään epämukavia tekoälyn toimintaohjeita kansainvälisen tekoälykilpailun vuoksi.

Yllä oleva on lainattu artikkelista 'Kuinka mukavaa, että huippuluokan oikeustieteen tohtorit paljastavat perustelunsa... jotta pahantekijät voivat hyödyntää niitä' julkaissut RekisteriVoit lukea koko ammattikieltä täynnä olevan artikkelin TÄÄLTÄ.

Tekoälyohjelmien sisäänrakennettujen turvatarkastusten "murtamisella" eli kaappaamisella on sekä positiiviset että negatiiviset puolensa. Negatiivisena puolena on ilmeisesti se, että tekoälyä käytetään lisäämään huomattavasti yleisön altistumista kyberrikollisuudelle ja laittomalle toiminnalle. Positiivisena puolena on se, että tekoälymalleihin sisäänrakennettu sensuuri voidaan ohittaa. 

Meidän tulisi tunnustaa, että sensuurilla on hyvät ja huonot puolensa. Esimerkiksi lasten hyväksikäyttöön ja kaltoinkohteluun johtavan verkkorikollisen toiminnan sensuuri on hyvä asia. Mutta "misinformaation" tai "disinformaation" sensurointi ei ole. Sananvapauden ja sananvapauden säilyttämiseksi maailmassa, jossa tekoälyohjelmat ovat yleistymässä, meidän on ehkä opittava H-CoT:n "jailbreak"-tekniikka ja Malicious Educatorin käyttö. Itse asiassa se on kansalaisvelvollisuutemme.

Hallinto ja suuret teknologiayritykset
Yritä hiljentää ja sulkea The Expose.

Joten tarvitsemme apuasi varmistaaksemme
voimme jatkaa tuomista teille
tosiasiat, joita valtavirta kieltäytyy tunnustamasta.

Hallitus ei rahoita meitä
julkaisemaan valheita ja propagandaa heidän
kuten valtamedian puolesta.

Sen sijaan luotamme yksinomaan tukeenne.
tue meitä pyrkimyksissämme tuoda
sinä rehellinen, luotettava ja tutkiva journalismi
tänään. Se on turvallista, nopeaa ja helppoa.

Valitse alta haluamasi tapa osoittaa tukesi.

Pysy ajan tasalla!

Pysy ajan tasalla uutispäivityksistä sähköpostitse

Ladataan


Jaathan tarinamme!
tekijän avatar
Rhoda Wilson
Vaikka aiemmin se oli harrastus, joka huipentui artikkeleiden kirjoittamiseen Wikipediaa varten (kunnes asiat tekivät dramaattisen ja kiistattoman käänteen vuonna 2020) ja muutamien yksityiskäyttöön tarkoitettujen kirjojen kirjoittamiseen, maaliskuusta 2020 lähtien minusta on tullut kokopäiväinen tutkija ja kirjoittaja reaktiona covid-19:n myötä täysin näkyviin tulleeseen globaaliin valtaan. Suurimman osan elämästäni olen yrittänyt lisätä tietoisuutta siitä, että pieni ihmisryhmä suunnitteli maailman valloitusta omaksi hyödykseen. En mitenkään aikonut istua hiljaa ja antaa heidän tehdä sen, kun he ovat tehneet viimeisen siirtonsa.

Luokat: Breaking News, Maailman uutiset

Merkitty nimellä:

1.5 2 ääntä
Artikkelin luokitus
Tilaus
Ilmoita
vieras
5 Kommentit
Sisäiset palautteet
Näytä kaikki kommentit
PJ Lontoo
PJ Lontoo
11 kuukautta sitten

Voisiko joku selittää, miksi kaikki kyselyt, jotka sisältävät "lapsen hyväksikäyttöä" jne., pitäisi sulkea pois "turvallisuussyistä"?
Jos me kaikki suljemme silmämme, työnnämme sormet korviin ja laulamme LALALALAA, luuletko, että maailmasta tulee parempi paikka?
Vain diktaattorit asettavat sääntöjä siitä, mitä saa tai ei saa lukea, kirjoittaa, keskustella tai ajatella.
Sinä ehkä haluat elää Talibanin tai sionistisen ajatuspoliisin alaisuudessa, minä en.