Tiesitkö?

Tekoäly syö itsensä; Se on kuin hullun lehmän tauti – Teknologian sisäpiiriläiset eivät ole huolissaan kehityksen kiihtymisestä

Jaathan tarinamme!

Tekoälyn kiihtyessä nykyaikaisen elämän jokaiseen osa-alueeseen vallitseva narratiivi on edelleen väistämättömyys. Älykkäämpien mallien ja täydellisen automaation myötä monet tuntevat sinkoutuvansa kohti tulevaisuutta, jota muokkaavat koneet, jotka suoriutuvat ihmisiä paremmin lähes kaikessa. Mutta yhä useammin teknologia-alan sisäpiiriläiset esittävät vaihtoehtoisia näkemyksiä: että kehityskaari ei ole terve, kestävä tai väistämätön. Dan Houser – Rockstar Gamesin perustajajäsen – vertasi äskettäin nykyistä nousukautta hullun lehmän tautiin sanoen, että se on järjestelmä, joka ruokkii itseään ja josta lopulta tulee perustavanlaatuisesti epävakaa. Se on provosoiva analogia, joka avaa syvemmän kysymyksen, joka saattaa tuoda helpotusta joillekin – entä jos tekoälyssä ilmenevät puutteet eivät olekaan korjattavia bugeja, vaan rakenteellisia rajoituksia, jotka estävät teknologiaa koskaan todella "vallattamasta maailmaa"? 

Tekoäly syö itseään kuin hullun lehmän tauti: Teknologian sisäpiiriläiset paljastavat haurauden, jota kehitys ei huolestuta

Hullun lehmän analogia: Syökö tekoäly itseään?

Houserin vertailu perustuu tiettyyn historialliseen opetukseen. Hullun lehmän tauti levisi, kun karjaa ruokittiin muiden karjan prosessoiduilla jäännösjäännösillä, mikä loi suljetun silmukan hajotettua biologista materiaalia, joka lopulta aiheutti katastrofaalisen neurologisen vajaatoiminnan. Hänen argumenttinsa on, että tekoäly – sen sijaan, että siitä tulisi voittamaton ja se ottaisi maailman haltuunsa – on itse asiassa ajautumassa samanlaiseen kaavaan. Malleja koulutetaan yhä enemmän synteettisillä tuotoksilla, jotka aiemmin on tuotettu muilla tekoälyjärjestelmillä – ei ihmisten luomalla tiedolla. 

Pohjimmiltaan automatisoitujen mallien kasvaessa yhä enemmän internetissä näkemästämme sisällöstä on samojen järjestelmien luomaa. Näin ollen uusien ja olemassa olevien mallien kehittyessä ne itse asiassa vain käsittelevät omia tuotoksiaan. Tutkijat ovat jo dokumentoineet ilmiön, joka tunnetaan nimellä mallin romahtaminen, jossa tekoälyn luomalla datalla toistuvasti koulutetut generatiiviset järjestelmät menettävät tarkkuutensa, monimuotoisuutensa ja irtautuvat todellisuudesta ajan myötä. Älykkyyden kasvattamisen sijaan järjestelmät päätyvät tyhjentämään itsensä, vahvistaen alkuperäisiä virheitään ja madaltaen vivahteitaan. 

Kasvava ongelma, josta teknologiajohtajat eivät puhu

Julkiseen yleisöön suunnattu tekoälymarkkinointi keskittyy skaalautuvuuteen: enemmän dataa, enemmän integraatiota, enemmän parametreja. Mutta mistä ei puhuta, on korkealaatuisen, ihmisen tuottaman koulutusmateriaalin kasvava niukkuus. Suuri osa avoimesta internetistä on jo vallannut olemassa olevat mallit, mikä tarkoittaa, että jäljelle jäävä osa on yhä enemmän roskapostin, automatisoidun melun ja muun tekoälysisällön saastuttamaa. 

Suuret kielimallit, joilla ei ole pääsyä jatkuvasti uudistuvaan ihmisen panokseen, kuten taiteeseen, päättelyyn, kirjoittamiseen ja aitoon elettyyn kokemukseen, ovat vakavassa vaarassa pysähtyä tai taantua. Ironista on, että mitä enemmän automatisoitua sisältöä tulvii verkkoon, sitä epäluotettavammaksi verkko muuttuu koulutuslähteenä. 

Houserin kritiikki ulottuu teknistä arkkitehtuuria syvemmälle. Hän väittää, että ne, jotka ajavat kiihkeimmin tekoälyn täydellistä käyttöönottoa, jäävät usein eristyksiin älyllisistä ja kulttuurisista kustannuksista ja asettavat tehokkuuden etusijalle asianmukaisen ymmärryksen sijaan. Hänen omien sanojensa mukaan nämä johtajat eivät ole "täysin kokonaisvaltaisia ​​ihmisiä", jotka kaventavat näkökulmaansa päätöksentekopiireissä. 

Mitä videopelit opettavat meille tekoälystä

Rockstar Games – jonka Houser oli mukana perustamassa – rakensi maineensa ihmisen luoman monimutkaisuuden, kuten satiirin, kulttuurisen tekstuurin ja yleisen luovuuden, varaan. Juuri näitä ominaisuuksia generatiivisella tekoälyllä on vaikeuksia toistaa vakuuttavasti.  

Vaikka mallit voivat luoda dialogia, tekstuureja ja koodinpätkiä, niiltä puuttuu sisäinen merkityksen, motivaation tai seurauksen tunne. Nämä ovat tarinankerronnan ja maailmanrakentamisen kannalta olennaisia ​​ominaisuuksia, ja pelikehittäjät ovat jo kauan sitten kohdanneet tekoälyn rajoitukset käytännössä. Ne korostavat laajempaa ongelmaa: tekoäly voi jäljitellä muotoa, mutta se ei ymmärrä kontekstia. Se voi ennustaa, mitä... shouldnt tule seuraavaksi, mutta ei miksi sen pitäisi tulla seuraavaksi ollenkaan. 

Muut soittavat samaa hälytystä

Houser on vain yksi esimerkki kasvavasta joukosta huolestuneita teknologiajohtajia, jotka kaikki ovat samaa mieltä. He varoittavat usein, että tekoälyjärjestelmät ovat hauraita, yliarvostettuja ja perustavanlaatuisesti epäsuhtaisia ​​​​siihen, miten älykkyys... ihan oikeesti toimii.  

Varmoja mutta vääriä tuloksia kutsutaan usein "hallusinaareiksi". Nämä toimivat merkkinä siitä, että nämä järjestelmät eivät todellisuudessa toimi. tietää mitään inhimillisessä mielessä. Huolta aiheuttavat myös räjähdysmäisesti nousevat energiakustannukset, datan pullonkaulat ja mallien skaalautuessa pienenevät tuotot. Huhujen mukaan raa'an voiman skaalaus ja yritykset laajentaa mahdollisimman nopeasti ovat itse asiassa lähestymässä taloudellisia ja fyysisiä rajoja. 

Ehkä rauhoittavaa on, että pelko karanneesta superälykkyydestä alkaa näyttää vähemmän välittömältä uhalta ja enemmänkin häiriötekijältä todellisista riskeistä: kulttuurisesta homogenisaatiosta, väärästä informaatiosta ja institutionaalisesta liiallisesta riippuvuudesta järjestelmiin, jotka eivät voi koskaan toimia kuin ihmiset. 

Ovatko nämä tekoälyn rajoitukset hyvä asia?

Tämä rakenteellinen heikkous voi olla juuri se, mikä estää katastrofin. Jos tekoälyjärjestelmät heikkenevät eristyksissä ihmisen syötteestä, niistä ei voi koskaan tulla omavaraisia ​​älykkyyden muotoja. Ne loisevat ihmisen luovuutta ja harkintakykyä, ja tämä riippuvuus heikentää suosittuja tieteiskirjallisuuden kuvia koneista, jotka parantavat itseään itsenäisesti ihmisen hallinnan ulkopuolella. 

Tässä mielessä tekoäly voi olla enemmänkin vahvistin kuin korvike. Se voi olla tehokas työkalu, mutta pohjimmiltaan rajoitettu. Ehkä se voi kiihdyttää yhteiskunnassa jo esiintyviä malleja, mutta se ei voi luoda merkitystä, etiikkaa tai tarkoitusta yksinään. Se ei välttämättä ole harmitonmutta kyllä ​​se alkaa näkyä rajoitettu

Todellinen riski kaiken takana

Vakavin uhka tässä tapauksessa ei olisi tekoäly itse, vaan pikemminkin se, miten instituutiot siihen reagoivat. Yritykset, mediaorganisaatiot ja jopa hallitukset pitävät tekoälyn tuotoksia yhä useammin arvovaltaisina, vaikka niiden tarkkuus olisi epävarmaa. Ajan myötä tämä heikentää ihmisten asiantuntemusta, vastuullisuutta ja kriittistä ajattelua. 

Jos tekoälyn tuottamasta materiaalista tulee oletusarvoinen viitekehys esimerkiksi lainsäädännössä, journalismissa, koulutuksessa tai politiikassa, virheet lakkaavat olemasta yksittäisiä erehdyksiä ja niistä tulee systeemisiä epäonnistumisia. Tämä on todellinen "hullun lehmän" riski: ei se, että koneet kapinoisivat, vaan se, että ihmiset ulkoistavat harkintakykynsä, kunnes takaisinkytkentäsilmukka pettää.  

Houser kysyy yksinkertaisesti, sekoittaako yhteiskunta automaation viisauteen ja nopeuden edistykseen. 

Lopullinen ajatus

Jos tekoäly on todella siirtymässä "hullun lehmän" vaiheeseen, niin koneen täydellisen herruuden fantasia ja pelko näyttävät vähemmän vakuuttavilta. Se saattaa pettää futuristit ja alarmistit, mutta sen pitäisi rauhoittaa kaikkia muita.  

Tulevaisuus todellakin tarvitsee ihmisen harkintakykyä, luovuutta ja ymmärrystä. Jos otamme Houserin kaltaiset argumentit, vaarana ei ole se, että tekoäly korvaa kaikki, eikä näytä siltä, ​​että tekoäly koskaan voisi vallata maailmaa. Mutta se ei tarkoita, ettemme lopulta luopuisi siitä vapaaehtoisesti luottamalla liikaa automatisoituihin malleihin sillä välin. 

Hallinto ja suuret teknologiayritykset
Yritä hiljentää ja sulkea The Expose.

Joten tarvitsemme apuasi varmistaaksemme
voimme jatkaa tuomista teille
tosiasiat, joita valtavirta kieltäytyy tunnustamasta.

Hallitus ei rahoita meitä
julkaisemaan valheita ja propagandaa heidän
kuten valtamedian puolesta.

Sen sijaan luotamme yksinomaan tukeenne.
tue meitä pyrkimyksissämme tuoda
sinä rehellinen, luotettava ja tutkiva journalismi
tänään. Se on turvallista, nopeaa ja helppoa.

Valitse alta haluamasi tapa osoittaa tukesi.

Pysy ajan tasalla!

Pysy ajan tasalla uutispäivityksistä sähköpostitse

Ladataan


Jaathan tarinamme!
tekijän avatar
g.calder
Olen George Calder – elinikäinen totuudenetsijä, dataharrastaja ja anteeksipyytelemätön kysymysten esittäjä. Olen viettänyt lähes kaksi vuosikymmentä dokumenttien läpikäymiseen, tilastojen tulkitsemiseen ja sellaisten narratiivien haastamiseen, jotka eivät kestä tarkastelua. Kirjoitukseni eivät perustu mielipiteisiin – kyse on todisteista, logiikasta ja selkeydestä. Jos niitä ei voida tukea, ne eivät kuulu tarinaan. Ennen Expose Newsiin tuloani työskentelin akateemisen tutkimuksen ja politiikan analysoinnin parissa, mikä opetti minulle yhden asian: totuus on harvoin kovaäänistä, mutta se on aina olemassa – jos tiedät mistä etsiä. Kirjoitan, koska yleisö ansaitsee enemmän kuin otsikoita. Sinä ansaitset kontekstia, läpinäkyvyyttä ja vapautta ajatella kriittisesti. Olipa kyseessä sitten hallituksen raporttien avaaminen, lääketieteellisten tietojen analysointi tai median puolueellisuuden paljastaminen, tavoitteeni on yksinkertainen: erota hälyn ja esittää faktat. Kun en kirjoita, minut löytää patikoimasta, lukemasta tuntemattomia historiankirjoja tai kokeilemasta reseptejä, jotka eivät koskaan aivan onnistu.
5 3 ääntä
Artikkelin luokitus
Tilaus
Ilmoita
vieras
9 Kommentit
Sisäiset palautteet
Näytä kaikki kommentit
INGRID C. DURDEN
INGRID C. DURDEN
1 kuukausi sitten

Ehdottomasti. Kone ei mielestäni voi ylittää siihen asennetun laitteiston tehoa. Ja se tarvitsee korjausta. Ihmisten on korjattava se, enkä usko, että on olemassa itsekorjaavaa konetta. Kun tietokoneista tuli tavallisia hyödykkeitä, meille sanottiin, ettei paperisia tietoja enää tarvittaisi. Mutta kun tietokone hajoaa, tarvitset silti vanhan kunnon osoitekirjan.

kuno
kuno
Vastata  INGRID C. DURDEN
1 kuukausi sitten

Tosiaankin, mutta mielestäni on yleinen taipumus unohtaa todellinen ongelma, joka on riippuvuutemme tietojärjestelmistä. Tästä johtuu älykkäille järjestelmille annettu valta, olivatpa ne kuinka tyhmiä tai hulluja tahansa. Juuri niiden mielettömyys tappaa meidät kauan ennen kuin se tappaa itsensä. Eikä siksi, että se nimenomaisesti haluaisi meidät kuolevan, vaan koska laiskat ylläpitäjät antavat järjestelmille vallan ja koska me hyväksymme sen. "Tietokone sanoo ei" – "Öö, okei kai". Joka kerta, kun järjestelmä tekee päätöksen, jota ihminen ei voi ohittaa, olemme suurissa vaikeuksissa. Tämä juontaa juurensa monta vuotta ennen kuin tekoälyä edes oli olemassa, ehkä 1970-luvulle. Tiedättehän, kuten silloin, kun tädilleni lähetettiin lasku nollasta punnasta, koska hän ei ollut käyttänyt mitään tilillään, ja yritys uhkasi sulkea hänen tilinsä. Lopulta ainoa kiertotie oli, että hän lähetti heille shekin nollasta punnasta ja nollasta pennistä. Vika korjattiin tietenkin, mutta todellinen ongelma oli rakenteellinen – ihmisten oli tehtävä niin, että kone piti käskyt pitääkseen sen tyytyväisenä.

Joan Jacob
Joan Jacob
1 kuukausi sitten

Kun soitat yritykseen tai organisaatioon ja saat tekoälyn vastaamaan ongelmaasi, sen ratkaiseminen on lähes mahdotonta. Et voi keskustella botin kanssa, ja lopulta kaikkien pienten yritysten on yhä vaikeampaa, koska on mahdotonta puhua ihmisen kanssa, joka pystyisi ratkaisemaan heidän ongelmansa.
Tämä aiheuttaa jo ongelmia pankeille ja tärkeille palveluille, kuten puhelin- ja sähköyhtiöille. Tilanteesta tulee erittäin vakava, jos et pysty puhumaan henkilölle, joka ymmärtää, mitä sanot.

CharlieSeattle
CharlieSeattle
Vastata  Joan Jacob
1 kuukausi sitten

Ei Habloa?

Rebecca Denhoff
Rebecca Denhoff
1 kuukausi sitten

Olen aina epäillyt tekoälyn muuttumista Haliksi. En epäile ihmisten laiskuutta, pahuutta ja holtittomuutta etsiessään helpompaa tietä välittämättä siitä, kuinka huolimattomaksi, rikolliseksi ja epäoikeudenmukaiseksi tekoälystä voisi tulla, jos sen annettaisiin tehdä päätöksiä hallituksessa sylkemällä ulos joitakin rappeutuneita, oksentavia algoritmeja. Varsinkin esimerkiksi oikeusjärjestelmässä tai verotusjärjestelmässä. Byrokraatit ovat yleensä hulluja libertardeja, joiden omat käyttöjärjestelmät ovat rappeutuneet. Ja vaikka heitä saattaisi olla vähemmän työllistettyjä, tekoälyn ja näiden idioottien ansiosta kansalaisten elämä voi muuttua melko kurjaksi. Tekoäly vaatii aina vastuullisten, raittiiden ja hyveellisten ihmisten tarkkaa valvontaa. En vain näe sen tapahtuvan, jossa rikkaat ja vaikutusvaltaiset ovat enimmäkseen raakoja rikollisia.

Pietari
Pietari
1 kuukausi sitten

Suurempi riski on vähemmän koneissa kuin niitä omistavassa ja pyörittävässä "teknologiabrossien" hirviöluokassa. Niiden omistushaluinen luonne, joka varmasti heijastuu heidän tekoälyn kautta kulkevan niin kutsutun luovuutensa umpikujassa, on todellinen uhka, sillä Yhdysvaltojen kilpailulakien epäonnistuminen osoittaa megakorporaatioiden – Blackrockin ym. – verkoston saavuttavan hallitsemattoman diktatuurin, kuten Thielin/Palantirin ja Muskin Xempiren. Loput kamppailevat muutaman symbolisen murusen perässä, jotka symboloivat omistajuuttamme ei mihinkään ja onnellisuuttamme.

CharlieSeattle
CharlieSeattle
1 kuukausi sitten

Kuka kirjoittaa tekoälyn levittämät valheet?

Paul Watson
Paul Watson
Vastata  CharlieSeattle
1 kuukausi sitten

Sinun täytyy haastaa tekoäly saadaksesi todellisia vastauksia.
Kysyin Charlie Kirkin murhasta ja se suolsi verkkojuttua, mutta esittämällä salamurhaan liittyvät tosiasiat ja peittelyn ja bingo, se oli erittäin vaikuttavaa.

John hart
John hart
1 kuukausi sitten

Tekoäly on ehdottoman välttämätön, jotta yksilöt voivat pysyä vapaina kehittyvässä huipputeknologian maailmassa. Valitettavasti hypetetty tekoäly (AGI) ei ainoastaan ​​pysty lunastamaan kannattajiensa lupauksia, vaan väärä uskomus siitä, että se pystyy, on erittäin vaarallinen. Informaatiotieteitä ymmärtävät ihmiset vitsailevat jo jättimäisten järjestelmien osien pelastamisesta niiden vikaantumisen ja sammuttamisen jälkeen. Se olisi "hyvä" skenaario, huono peilaa romahtanutta AGW-huijausta, johon silti miljardit uskovat edelleen.

Ihmiskuntaa auttavan tekoälyn on oltava hajautettua ja ihmisille on annettava valtuudet ohjelmoida sitä yksilöllisiin tarpeisiin. Ohjelmistoja, joista ihmiset ovat riippuvaisia, aivan kuten lääketieteenkin, on oltava AVOIN LÄHDEKOODI! Molemmilla aloilla vaara on kasvanut vuosien ajan, koska oligarkkien annettiin ottaa haltuunsa sääntelyelimet, median ja lähes kaiken muun, mistä ihmiset ovat riippuvaisia.

Tarvitsemme uuden verojärjestelmän, joka estää monopolien muodostumisen ja antaa mahdollisuuden yksilöiden pääomanmuodostukseen. Nykyinen järjestelmä toimii täysin päinvastoin, ja hallitus, jonka "pitäisi" pitää kapitalismi tasapainossa, on vallattu jo kauan sitten. PAT-SAT on suunniteltu palauttamaan taloudellinen tasapaino, jotta yksilöt voivat kukoistaa.