Tekoälyn kiihtyessä nykyaikaisen elämän jokaiseen osa-alueeseen vallitseva narratiivi on edelleen väistämättömyys. Älykkäämpien mallien ja täydellisen automaation myötä monet tuntevat sinkoutuvansa kohti tulevaisuutta, jota muokkaavat koneet, jotka suoriutuvat ihmisiä paremmin lähes kaikessa. Mutta yhä useammin teknologia-alan sisäpiiriläiset esittävät vaihtoehtoisia näkemyksiä: että kehityskaari ei ole terve, kestävä tai väistämätön. Dan Houser – Rockstar Gamesin perustajajäsen – vertasi äskettäin nykyistä nousukautta hullun lehmän tautiin sanoen, että se on järjestelmä, joka ruokkii itseään ja josta lopulta tulee perustavanlaatuisesti epävakaa. Se on provosoiva analogia, joka avaa syvemmän kysymyksen, joka saattaa tuoda helpotusta joillekin – entä jos tekoälyssä ilmenevät puutteet eivät olekaan korjattavia bugeja, vaan rakenteellisia rajoituksia, jotka estävät teknologiaa koskaan todella "vallattamasta maailmaa"?

Hullun lehmän analogia: Syökö tekoäly itseään?
Houserin vertailu perustuu tiettyyn historialliseen opetukseen. Hullun lehmän tauti levisi, kun karjaa ruokittiin muiden karjan prosessoiduilla jäännösjäännösillä, mikä loi suljetun silmukan hajotettua biologista materiaalia, joka lopulta aiheutti katastrofaalisen neurologisen vajaatoiminnan. Hänen argumenttinsa on, että tekoäly – sen sijaan, että siitä tulisi voittamaton ja se ottaisi maailman haltuunsa – on itse asiassa ajautumassa samanlaiseen kaavaan. Malleja koulutetaan yhä enemmän synteettisillä tuotoksilla, jotka aiemmin on tuotettu muilla tekoälyjärjestelmillä – ei ihmisten luomalla tiedolla.
Pohjimmiltaan automatisoitujen mallien kasvaessa yhä enemmän internetissä näkemästämme sisällöstä on samojen järjestelmien luomaa. Näin ollen uusien ja olemassa olevien mallien kehittyessä ne itse asiassa vain käsittelevät omia tuotoksiaan. Tutkijat ovat jo dokumentoineet ilmiön, joka tunnetaan nimellä mallin romahtaminen, jossa tekoälyn luomalla datalla toistuvasti koulutetut generatiiviset järjestelmät menettävät tarkkuutensa, monimuotoisuutensa ja irtautuvat todellisuudesta ajan myötä. Älykkyyden kasvattamisen sijaan järjestelmät päätyvät tyhjentämään itsensä, vahvistaen alkuperäisiä virheitään ja madaltaen vivahteitaan.
Kasvava ongelma, josta teknologiajohtajat eivät puhu
Julkiseen yleisöön suunnattu tekoälymarkkinointi keskittyy skaalautuvuuteen: enemmän dataa, enemmän integraatiota, enemmän parametreja. Mutta mistä ei puhuta, on korkealaatuisen, ihmisen tuottaman koulutusmateriaalin kasvava niukkuus. Suuri osa avoimesta internetistä on jo vallannut olemassa olevat mallit, mikä tarkoittaa, että jäljelle jäävä osa on yhä enemmän roskapostin, automatisoidun melun ja muun tekoälysisällön saastuttamaa.
Suuret kielimallit, joilla ei ole pääsyä jatkuvasti uudistuvaan ihmisen panokseen, kuten taiteeseen, päättelyyn, kirjoittamiseen ja aitoon elettyyn kokemukseen, ovat vakavassa vaarassa pysähtyä tai taantua. Ironista on, että mitä enemmän automatisoitua sisältöä tulvii verkkoon, sitä epäluotettavammaksi verkko muuttuu koulutuslähteenä.
Houserin kritiikki ulottuu teknistä arkkitehtuuria syvemmälle. Hän väittää, että ne, jotka ajavat kiihkeimmin tekoälyn täydellistä käyttöönottoa, jäävät usein eristyksiin älyllisistä ja kulttuurisista kustannuksista ja asettavat tehokkuuden etusijalle asianmukaisen ymmärryksen sijaan. Hänen omien sanojensa mukaan nämä johtajat eivät ole "täysin kokonaisvaltaisia ihmisiä", jotka kaventavat näkökulmaansa päätöksentekopiireissä.
Mitä videopelit opettavat meille tekoälystä
Rockstar Games – jonka Houser oli mukana perustamassa – rakensi maineensa ihmisen luoman monimutkaisuuden, kuten satiirin, kulttuurisen tekstuurin ja yleisen luovuuden, varaan. Juuri näitä ominaisuuksia generatiivisella tekoälyllä on vaikeuksia toistaa vakuuttavasti.
Vaikka mallit voivat luoda dialogia, tekstuureja ja koodinpätkiä, niiltä puuttuu sisäinen merkityksen, motivaation tai seurauksen tunne. Nämä ovat tarinankerronnan ja maailmanrakentamisen kannalta olennaisia ominaisuuksia, ja pelikehittäjät ovat jo kauan sitten kohdanneet tekoälyn rajoitukset käytännössä. Ne korostavat laajempaa ongelmaa: tekoäly voi jäljitellä muotoa, mutta se ei ymmärrä kontekstia. Se voi ennustaa, mitä... shouldnt tule seuraavaksi, mutta ei miksi sen pitäisi tulla seuraavaksi ollenkaan.
Muut soittavat samaa hälytystä
Houser on vain yksi esimerkki kasvavasta joukosta huolestuneita teknologiajohtajia, jotka kaikki ovat samaa mieltä. He varoittavat usein, että tekoälyjärjestelmät ovat hauraita, yliarvostettuja ja perustavanlaatuisesti epäsuhtaisia siihen, miten älykkyys... ihan oikeesti toimii.
Varmoja mutta vääriä tuloksia kutsutaan usein "hallusinaareiksi". Nämä toimivat merkkinä siitä, että nämä järjestelmät eivät todellisuudessa toimi. tietää mitään inhimillisessä mielessä. Huolta aiheuttavat myös räjähdysmäisesti nousevat energiakustannukset, datan pullonkaulat ja mallien skaalautuessa pienenevät tuotot. Huhujen mukaan raa'an voiman skaalaus ja yritykset laajentaa mahdollisimman nopeasti ovat itse asiassa lähestymässä taloudellisia ja fyysisiä rajoja.
Ehkä rauhoittavaa on, että pelko karanneesta superälykkyydestä alkaa näyttää vähemmän välittömältä uhalta ja enemmänkin häiriötekijältä todellisista riskeistä: kulttuurisesta homogenisaatiosta, väärästä informaatiosta ja institutionaalisesta liiallisesta riippuvuudesta järjestelmiin, jotka eivät voi koskaan toimia kuin ihmiset.
Ovatko nämä tekoälyn rajoitukset hyvä asia?
Tämä rakenteellinen heikkous voi olla juuri se, mikä estää katastrofin. Jos tekoälyjärjestelmät heikkenevät eristyksissä ihmisen syötteestä, niistä ei voi koskaan tulla omavaraisia älykkyyden muotoja. Ne loisevat ihmisen luovuutta ja harkintakykyä, ja tämä riippuvuus heikentää suosittuja tieteiskirjallisuuden kuvia koneista, jotka parantavat itseään itsenäisesti ihmisen hallinnan ulkopuolella.
Tässä mielessä tekoäly voi olla enemmänkin vahvistin kuin korvike. Se voi olla tehokas työkalu, mutta pohjimmiltaan rajoitettu. Ehkä se voi kiihdyttää yhteiskunnassa jo esiintyviä malleja, mutta se ei voi luoda merkitystä, etiikkaa tai tarkoitusta yksinään. Se ei välttämättä ole harmitonmutta kyllä se alkaa näkyä rajoitettu.
Todellinen riski kaiken takana
Vakavin uhka tässä tapauksessa ei olisi tekoäly itse, vaan pikemminkin se, miten instituutiot siihen reagoivat. Yritykset, mediaorganisaatiot ja jopa hallitukset pitävät tekoälyn tuotoksia yhä useammin arvovaltaisina, vaikka niiden tarkkuus olisi epävarmaa. Ajan myötä tämä heikentää ihmisten asiantuntemusta, vastuullisuutta ja kriittistä ajattelua.
Jos tekoälyn tuottamasta materiaalista tulee oletusarvoinen viitekehys esimerkiksi lainsäädännössä, journalismissa, koulutuksessa tai politiikassa, virheet lakkaavat olemasta yksittäisiä erehdyksiä ja niistä tulee systeemisiä epäonnistumisia. Tämä on todellinen "hullun lehmän" riski: ei se, että koneet kapinoisivat, vaan se, että ihmiset ulkoistavat harkintakykynsä, kunnes takaisinkytkentäsilmukka pettää.
Houser kysyy yksinkertaisesti, sekoittaako yhteiskunta automaation viisauteen ja nopeuden edistykseen.
Lopullinen ajatus
Jos tekoäly on todella siirtymässä "hullun lehmän" vaiheeseen, niin koneen täydellisen herruuden fantasia ja pelko näyttävät vähemmän vakuuttavilta. Se saattaa pettää futuristit ja alarmistit, mutta sen pitäisi rauhoittaa kaikkia muita.
Tulevaisuus todellakin tarvitsee ihmisen harkintakykyä, luovuutta ja ymmärrystä. Jos otamme Houserin kaltaiset argumentit, vaarana ei ole se, että tekoäly korvaa kaikki, eikä näytä siltä, että tekoäly koskaan voisi vallata maailmaa. Mutta se ei tarkoita, ettemme lopulta luopuisi siitä vapaaehtoisesti luottamalla liikaa automatisoituihin malleihin sillä välin.
Paljastaja tarvitsee kiireellisesti apuasi…
Voisitko auttaa pitämään valot päällä The Exposen rehellisen, luotettavan, vaikuttavan ja totuudenmukaisen journalismin avulla?
Hallinto ja suuret teknologiayritykset
Yritä hiljentää ja sulkea The Expose.
Joten tarvitsemme apuasi varmistaaksemme
voimme jatkaa tuomista teille
tosiasiat, joita valtavirta kieltäytyy tunnustamasta.
Hallitus ei rahoita meitä
julkaisemaan valheita ja propagandaa heidän
kuten valtamedian puolesta.
Sen sijaan luotamme yksinomaan tukeenne.
tue meitä pyrkimyksissämme tuoda
sinä rehellinen, luotettava ja tutkiva journalismi
tänään. Se on turvallista, nopeaa ja helppoa.
Valitse alta haluamasi tapa osoittaa tukesi.
Luokat: Tiesitkö?, Maailman uutiset
Ehdottomasti. Kone ei mielestäni voi ylittää siihen asennetun laitteiston tehoa. Ja se tarvitsee korjausta. Ihmisten on korjattava se, enkä usko, että on olemassa itsekorjaavaa konetta. Kun tietokoneista tuli tavallisia hyödykkeitä, meille sanottiin, ettei paperisia tietoja enää tarvittaisi. Mutta kun tietokone hajoaa, tarvitset silti vanhan kunnon osoitekirjan.
Tosiaankin, mutta mielestäni on yleinen taipumus unohtaa todellinen ongelma, joka on riippuvuutemme tietojärjestelmistä. Tästä johtuu älykkäille järjestelmille annettu valta, olivatpa ne kuinka tyhmiä tai hulluja tahansa. Juuri niiden mielettömyys tappaa meidät kauan ennen kuin se tappaa itsensä. Eikä siksi, että se nimenomaisesti haluaisi meidät kuolevan, vaan koska laiskat ylläpitäjät antavat järjestelmille vallan ja koska me hyväksymme sen. "Tietokone sanoo ei" – "Öö, okei kai". Joka kerta, kun järjestelmä tekee päätöksen, jota ihminen ei voi ohittaa, olemme suurissa vaikeuksissa. Tämä juontaa juurensa monta vuotta ennen kuin tekoälyä edes oli olemassa, ehkä 1970-luvulle. Tiedättehän, kuten silloin, kun tädilleni lähetettiin lasku nollasta punnasta, koska hän ei ollut käyttänyt mitään tilillään, ja yritys uhkasi sulkea hänen tilinsä. Lopulta ainoa kiertotie oli, että hän lähetti heille shekin nollasta punnasta ja nollasta pennistä. Vika korjattiin tietenkin, mutta todellinen ongelma oli rakenteellinen – ihmisten oli tehtävä niin, että kone piti käskyt pitääkseen sen tyytyväisenä.
Kun soitat yritykseen tai organisaatioon ja saat tekoälyn vastaamaan ongelmaasi, sen ratkaiseminen on lähes mahdotonta. Et voi keskustella botin kanssa, ja lopulta kaikkien pienten yritysten on yhä vaikeampaa, koska on mahdotonta puhua ihmisen kanssa, joka pystyisi ratkaisemaan heidän ongelmansa.
Tämä aiheuttaa jo ongelmia pankeille ja tärkeille palveluille, kuten puhelin- ja sähköyhtiöille. Tilanteesta tulee erittäin vakava, jos et pysty puhumaan henkilölle, joka ymmärtää, mitä sanot.
Ei Habloa?
Olen aina epäillyt tekoälyn muuttumista Haliksi. En epäile ihmisten laiskuutta, pahuutta ja holtittomuutta etsiessään helpompaa tietä välittämättä siitä, kuinka huolimattomaksi, rikolliseksi ja epäoikeudenmukaiseksi tekoälystä voisi tulla, jos sen annettaisiin tehdä päätöksiä hallituksessa sylkemällä ulos joitakin rappeutuneita, oksentavia algoritmeja. Varsinkin esimerkiksi oikeusjärjestelmässä tai verotusjärjestelmässä. Byrokraatit ovat yleensä hulluja libertardeja, joiden omat käyttöjärjestelmät ovat rappeutuneet. Ja vaikka heitä saattaisi olla vähemmän työllistettyjä, tekoälyn ja näiden idioottien ansiosta kansalaisten elämä voi muuttua melko kurjaksi. Tekoäly vaatii aina vastuullisten, raittiiden ja hyveellisten ihmisten tarkkaa valvontaa. En vain näe sen tapahtuvan, jossa rikkaat ja vaikutusvaltaiset ovat enimmäkseen raakoja rikollisia.
Suurempi riski on vähemmän koneissa kuin niitä omistavassa ja pyörittävässä "teknologiabrossien" hirviöluokassa. Niiden omistushaluinen luonne, joka varmasti heijastuu heidän tekoälyn kautta kulkevan niin kutsutun luovuutensa umpikujassa, on todellinen uhka, sillä Yhdysvaltojen kilpailulakien epäonnistuminen osoittaa megakorporaatioiden – Blackrockin ym. – verkoston saavuttavan hallitsemattoman diktatuurin, kuten Thielin/Palantirin ja Muskin Xempiren. Loput kamppailevat muutaman symbolisen murusen perässä, jotka symboloivat omistajuuttamme ei mihinkään ja onnellisuuttamme.
Kuka kirjoittaa tekoälyn levittämät valheet?
Sinun täytyy haastaa tekoäly saadaksesi todellisia vastauksia.
Kysyin Charlie Kirkin murhasta ja se suolsi verkkojuttua, mutta esittämällä salamurhaan liittyvät tosiasiat ja peittelyn ja bingo, se oli erittäin vaikuttavaa.
Tekoäly on ehdottoman välttämätön, jotta yksilöt voivat pysyä vapaina kehittyvässä huipputeknologian maailmassa. Valitettavasti hypetetty tekoäly (AGI) ei ainoastaan pysty lunastamaan kannattajiensa lupauksia, vaan väärä uskomus siitä, että se pystyy, on erittäin vaarallinen. Informaatiotieteitä ymmärtävät ihmiset vitsailevat jo jättimäisten järjestelmien osien pelastamisesta niiden vikaantumisen ja sammuttamisen jälkeen. Se olisi "hyvä" skenaario, huono peilaa romahtanutta AGW-huijausta, johon silti miljardit uskovat edelleen.
Ihmiskuntaa auttavan tekoälyn on oltava hajautettua ja ihmisille on annettava valtuudet ohjelmoida sitä yksilöllisiin tarpeisiin. Ohjelmistoja, joista ihmiset ovat riippuvaisia, aivan kuten lääketieteenkin, on oltava AVOIN LÄHDEKOODI! Molemmilla aloilla vaara on kasvanut vuosien ajan, koska oligarkkien annettiin ottaa haltuunsa sääntelyelimet, median ja lähes kaiken muun, mistä ihmiset ovat riippuvaisia.
Tarvitsemme uuden verojärjestelmän, joka estää monopolien muodostumisen ja antaa mahdollisuuden yksilöiden pääomanmuodostukseen. Nykyinen järjestelmä toimii täysin päinvastoin, ja hallitus, jonka "pitäisi" pitää kapitalismi tasapainossa, on vallattu jo kauan sitten. PAT-SAT on suunniteltu palauttamaan taloudellinen tasapaino, jotta yksilöt voivat kukoistaa.