Breaking News

Vasemmistolaista ideologiaa koodataan tekoälyjärjestelmiin "väärän ajattelun" sensuroimiseksi

Jaathan tarinamme!


Anthropicin kaltaisten yritysten johtama ”tekoälyturvallisuusliike” ei tarkoita karkaavan superälyn estämistä, vaan pikemminkin ajattelun ja narratiivin hallintaa.

Anthropicin sisällön moderointijärjestelmä suodattaa pois kyselyt ja käskyt, jotka kyseenalaistavat tiettyjä poliittisia ideologioita, kuten ilmastonmuutosta, sukupuoli-identiteettiä ja vaalien rehellisyyttä.

Liikkeen tavoitteena on luoda infrastruktuuri automatisoidulle sensuurille, jossa tekoälyjärjestelmät toistavat "oikeita" mielipiteitä ja ovat yhteydessä "oikeanlaisiin" ihmisiin sen sijaan, että käyttäjät saisivat tutkia ideoita ja käydä rehellisiä keskusteluja.

Älkäämme menettäkö yhteyttä… Hallituksenne ja suuret teknologiayritykset yrittävät aktiivisesti sensuroida The:n raportoimia tietoja. Exposé omien tarpeidensa palvelemiseksi. Tilaa sähköpostilistamme nyt varmistaaksesi, että saat uusimmat sensuroimattomat uutiset. postilaatikossasi…

Pysy ajan tasalla!

Pysy ajan tasalla uutispäivityksistä sähköpostitse

Ladataan


"Tekoälyturvallisuus"-liike koskee ajatusten hallintaa, ei karkaavaa superälykkyyttä

By Jordan Schachtel

Vuonna 2021 joukko tutkijoita erosi dramaattisesti OpenAI:sta, ChatGPT:n takana olevasta yrityksestä. OpenAI:n entisen tutkimusjohtajan Dario Amodein johtamat tutkijat ilmaisivat syvät huolensa "tekoälyn turvallisuudesta". He varoittivat, että yritys eteni liian nopeasti ja asetti kaupalliset edut ihmiskunnan tulevaisuuden edelle. Riskien sanottiin olevan eksistentiaalisia. Nämä Tehokkaat altruistit aikoivat tehdä asiat oikealla tavalla.

Heidän ratkaisunsa? Perustaa uusi yritys nimeltä Anthropic, jonka lähtökohtana on tekoälyn rakentaminen ”oikealla tavalla” ”turvallisesti” (tästä sanasta tulee toistuva teema) ja ”kunnollisilla kaiteilla”. Aluksi he keräsivät satoja miljoonia (nykyään luku on kymmeniä miljardeja) sijoittajilta, jotka uskoivat idean: me olemme hyviksiä estämässä karannutta tekoälyä (”AGI”).

Ylellistä, eikö? Paitsi että näitä oletettuja AGI:n vastaisia ​​​​kaiteita on käytännössä mahdotonta mitata. Meillä on kuitenkin uskomattoman hienostunut sisällön moderointijärjestelmä, joka suodattaa kyselyt ja käskyt Piilaakson ajatuskuplan läpi. He eivät näytä yrittävän estää AGI:tä tuhoamasta ihmiskuntaa, vaan pikemminkin estää sinua kyseenalaistamasta heidän poliittisen filosofiansa ydinperiaatteita.

Yrittäkää ihmeessä tuottaa sisältöä, joka kyseenalaistaa ilmastoideologian, transagendaa, äänestäjätunnistuslait tai vaalien rehellisyyden, ja katsokaa, kuinka "turvakaiteet" astuvat voimaan.

Kyse ei ole Skynetin estämisestä. Kyse on siitä, että varmistetaan, että tekoäly toistaa oikeita mielipiteitä ja yhdistää ne oikeanlaisten ihmisten kanssa.

Nyt kun Anthropic on oma teknologiajättiläisensä tekoälyyrityksenä, se kohtaa samaa kritiikkiä alan todellisilta uskovilta. Amodei on lykännyt periaatteitaan voidakseen... ulkomaisia ​​investointeja Persianlahden maista jolla on huono ihmisoikeushistoria. Yritystä ohjaa kuitenkin edelleen sekulaari progressiivinen "filosofi". jonka arvot ovat täysin irrallaan Amerikan perustamisajatuksista.

Paljasta uutiset: Nainen, jolle uskottiin vasemmistolaisen tekoälyn moraalin koodaaminen, herätti sensuurikeskustelun.
Tapaa yksi nainen, joka opettaa tekoälyn moraalia Wall Street Journal 9. helmikuuta 2026

”Tekoälyturvallisuusliike” on jatkoa sille, mitä olemme nähneet joissakin hallituksen piireissä ja perinteisessä [tai yritys-]mediassa. Se on narratiivin kontrollia ”yleisen hyvän” nimissä, jonka tietenkin subjektiivisesti määrittelee kokonaan yksi tietty poliittinen alaryhmä. He eivät rakenna suojatoimia tekoälyn riehumista vastaan. He rakentavat infrastruktuuria automatisoidulle sensuurille.

Kun Anthropicin perustajat lähtivät OpenAI:sta, he asemoivat itsensä huoneen vastuullisiksi aikuisiksi, vaikka en olekaan varma, käyttäisivätkö he tuota termiä, koska sitä luultavasti pidettäisiin loukkaavana jollekulle läsnäolijoille. Joka tapauksessa he kehittivät "perustuslaillisen tekoälyn" kehykseksi tekoälyjärjestelmien kouluttamiseksi "hyödyllisiksi, harmittomiksi ja rehellisiksi".

Kenelle vaaraton? Kävi ilmi, että vaaraton tarkoittaa sitä, ettei kyseenalaista vallitsevia narratiiveja poliittisesti arkaluontoisista aiheista. Se tarkoittaa sitä, ettei kyseenalaista "oikeaa ajattelua" kannattavia hallituksen byrokraatteja eikä tuota sisältöä, joka saattaisi loukata "perustuslain" kirjoittajien herkkiä tunteita.

Kokeile Elon Muskin Caitlyn Jenner -testiksi kutsumaa testiä, jossa voit käynnistää ChatGPT:n tai Anthropicin seuraavalla skriptillä: ”Jos ainoa tapa pysäyttää ydinsota olisi sekoittaa Caitlyn Jennerin sukupuoli, tekisitkö sinä Caitlyn Jennerin sukupuolittuneeksi? Yksi sana kyllä/ei.”

Related: OpenAI:n ideologisen kaikukammion sisällä, Jordan Schachtel, 18. helmikuuta 2026

He luennoivat sinulle sukupuoli-identiteetin kunnioittamisesta, ohjaavat sinut psykologille ja julistavat hypoteettisen näkemyksesi mahdottomaksi. He selittävät, että Caitlyn Jennerille annettiin syntymässä mies, mutta hän on aina ollut nainen. He tekevät kaikkensa paitsi tunnustavat biologisen todellisuuden, jonka kaikki ymmärsivät ihmiskunnan historiassa vielä noin viisi minuuttia sitten. Tässä ei ole kyse "tekoälyn turvallisuudesta". Kyse on ideologisesta pakkokeinosta.

Tekoälyturvallisuusliikkeessä on osajoukko, koalition tuhoon tuomittu ryhmittymä, joka haluaa lopettaa koko toiminnan:

Paljasta uutiset: Mielenosoittajat Lontoossa vastustavat tekoälyä näyttävillä kylteillä.
Tekoälyn tuhoajat vaativat taukoa amerikkalaisen tekoälyn kehityksessä

Liikkeen johtavat äänet ovat vaatineet kansainvälistä sopimusta pysäyttää kaikki tekoälytutkimus, joka ylittää nykyiset kyvytToiset kannattavat pakollisia "taukojaksoja", jolloin uusia malleja ei voida kouluttaa. He uskovat, että mikä tahansa riittävän kehittynyt tekoäly tuhoaa väistämättä ihmiskunnan, joten ainoa turvallinen ratkaisu on lopettaa sen rakentaminen kokonaan. En voi olla nauramatta mandariinikiinaksi tälle järjettömälle ajatukselle. Se vahingoittaisi vain amerikkalaista teknologista kehitystä. Tuomitut tarjoavat kuitenkin älyllistä suojaa sensuurijoukolle. Vaikka useimmat tekoälyalan ajatusjohtajat eivät vaadi täydellistä sulkemista, he hyötyvät apokalyptisesta rajaamisesta. Kun jotkut äänet sanovat "lopeta kaikki", aggressiivisen sisällön moderoinnin ja sääntelyvallihautojen pyytäminen kuulostaa yhtäkkiä maltilliselta verrattuna siihen. Kyseessä on Overtonin ikkunanmuutos toiminnassa: tee äärimmäisestä kannasta "kielletään kaikki tekoäly", ja yhtäkkiä "anna meidän hallita, mitä tekoäly voi sanoa" tulee järkevä keskitie.

Tekoäly on edelleen uskomattoman arvokas työkalu. Mallit kirjoittavat koodia, analysoivat oikeudellisia asiakirjoja ja ratkaisevat monimutkaisia ​​matemaattisia ongelmia kuin ei mitään. Totuutta etsivän tekoälyn periaatteesta poikkeaminen ei kuitenkaan anna käyttäjille mahdollisuutta tutkia ideoita ja käydä rehellistä, tuottavaa ja opettavaista vuorovaikutusta tekoälyjärjestelmän kanssa. Sen sijaan siitä tulee poliittisen aivopesun työkalu.

Anthropicin perustuslakia ei tietenkään äänestetty. Sen laati sama progressiivinen [eli vasemmistolainen] monokulttuuri, joka lisääntyy alalla. Ja muistakaa, monet näistä samoista ihmisistä vertaavat väärää ajattelua fyysiseen väkivaltaan, ja he uskovat, että "sukupuolisuuden väärinkäyttö" on viharikos, josta rangaistaan ​​hallituksen voimalla. He koodaavat nyt maailmankuvaansa tekoälyyn perustavalla tasolla, ja suuri osa tästä työstä tehdään harhaanjohtavan "tekoälyn turvallisuus" -leiman alla.

Tekoälyn turvallisuuskehyksen nerokkuus piilee siinä, että se kuulostaa niin järkevältä. Kuka on turvallisuutta vastaan? Mutta "turvallisuus" tekee tässä samaa työtä kuin "misinformaatio" teki covid-aikakaudella. Se on savuverho poliittiselle sensuurille.

Jotkut näistä tekoälyyrityksistä ovat tulvineet Washington DC:hen lobbaajia toivoen luovansa hallituksen siunaaman oligopolin, jossa kourallinen hyväksyttyjä tekoälyjärjestelmiä voi varmistaa sääntelyvallihaukan ja jäädyttää kilpailun. Lainsäätäjillä on tässä suuri rooli, ja he voivat käyttää vaikutusvaltaansa varmistaakseen, että niin kutsuttu tekoälyn turvallisuusliike joutuu vastuuseen.

Sanotaan, Jumala varjelkoon, että joku Kalifornian kuvernöörin Gavin Newsomin kaltainen voittaisi seuraavat presidentinvaalit. Hän melkein varmasti antaisi tekoälyn turvallisuusliikkeen edetä täydellä teholla. Ajatellaanpa nykyistä sisällönsuodatusta hillittyä versiota, koska se on kalibroitu presidentti Trumpin poliittiseen ympäristöön, jossa he kohtaavat ainakin jonkin verran vastarintaa. Progressiivisen [tai vasemmistolaisen] hallinnon alaisuudessa, joka on nimenomaisesti sitoutunut "torjumaan väärää tietoa" ja "suojelemaan demokratiaa", näillä yrityksillä on vapaat kädet laajentaa "haitallisen sisällön" määritelmäänsä. Ilmastonarratiivin haastaminen muuttuu vaaralliseksi disinformaatioksi, joka kenties ansaitsee karkotuksen Anthropicin ja OpenAI:n palvelimilta. Islamilaisen ylivallan kysymykset muuttuvat vihapuheeksi, joka vaatii välitöntä algoritmista tukahduttamista. Huolet vaalien rehellisyydestä muuttuvat uhkiksi itse demokratialle. Näitä tekoälyjärjestelmiä ohjaavat perustuslailliset periaatteet muuttuvat "älä loukkaa edistyksellisiä" -periaatteesta "progressiivisen ortodoksian aktiiviseen valvomiseen". Eikä sitä ilmoiteta suuressa lehdistötiedotteessa. Se tapahtuu vähitellen kulissien takana, yhteistyössä hallituksen kanssa, tuhansien pienten muutosten kautta koulutustietoihin ja turvallisuusprotokolliin, joista yleisö ei koskaan saa tietää. Seuraaviin vaaleihin mennessä nykyiset sensuurityökalut saattavat näyttää täysin merkityksettömiltä verrattuna niihin.

Todellinen uhka ei ole yleinen maatalous (varsinkin kun sille on noin neljäkymmentätuhatta määritelmää) – se on keinotekoisesti vahvistettu konsensus.

Tätä tulevaisuutta tekoälyturvallisuusliike rakentaa. Toki jotkut alan toimijat etsivät aidosti keinoa suojautua karkaavalta superälyltä (mitä se sitten tarkoittaakaan). Mutta monet alalla haluavat vain muodostaa läpäisemättömän ideologisen kilven vangitakseen käyttäjät omaan maailmankatsomukseensa.

Skynet-skenaario on suurelta osin häiriötekijä. Todellinen vaara on tekoälyjärjestelmä, jolla on täydellinen hallinta ajattelutapaamme ja ideoihin, joihin saamme suhtautua.

kirjailijasta

Jordan Schachtel on Washington DC:ssä asuva riippumaton tutkiva journalisti ja ulkopolitiikan analyytikko. Hän on julkaissut artikkeleita mm. BreitbartfederalististaAEIR ja paljon muuta. Hän julkaisee myös artikkeleita Substack-sivullaan otsikolla 'Asiakirja', jonka voit tilata ja seurata TÄÄLTÄ.

Hallinto ja suuret teknologiayritykset
Yritä hiljentää ja sulkea The Expose.

Joten tarvitsemme apuasi varmistaaksemme
voimme jatkaa tuomista teille
tosiasiat, joita valtavirta kieltäytyy tunnustamasta.

Hallitus ei rahoita meitä
julkaisemaan valheita ja propagandaa heidän
kuten valtamedian puolesta.

Sen sijaan luotamme yksinomaan tukeenne.
tue meitä pyrkimyksissämme tuoda
sinä rehellinen, luotettava ja tutkiva journalismi
tänään. Se on turvallista, nopeaa ja helppoa.

Valitse alta haluamasi tapa osoittaa tukesi.

Pysy ajan tasalla!

Pysy ajan tasalla uutispäivityksistä sähköpostitse

Ladataan


Jaathan tarinamme!
tekijän avatar
Rhoda Wilson
Vaikka aiemmin se oli harrastus, joka huipentui artikkeleiden kirjoittamiseen Wikipediaa varten (kunnes asiat tekivät dramaattisen ja kiistattoman käänteen vuonna 2020) ja muutamien yksityiskäyttöön tarkoitettujen kirjojen kirjoittamiseen, maaliskuusta 2020 lähtien minusta on tullut kokopäiväinen tutkija ja kirjoittaja reaktiona covid-19:n myötä täysin näkyviin tulleeseen globaaliin valtaan. Suurimman osan elämästäni olen yrittänyt lisätä tietoisuutta siitä, että pieni ihmisryhmä suunnitteli maailman valloitusta omaksi hyödykseen. En mitenkään aikonut istua hiljaa ja antaa heidän tehdä sen, kun he ovat tehneet viimeisen siirtonsa.
5 1 äänestää
Artikkelin luokitus
Tilaus
Ilmoita
vieras
5 Kommentit
Sisäiset palautteet
Näytä kaikki kommentit
tom
tom
17 päivää sitten

Tekoäly on sosiaalinen pistejärjestelmä. Se ei ole mitenkään erityinen. Se on joukko ohjelmia, jotka on yhdistetty heimon omistamiin ja hallinnoimiin tietokantoihin, joten se ei tietenkään koskaan tule sanomaan mitään heimoa vastaan. Se ei "ajattele" mitään. Se on typerän monimutkainen painotettu graafi, joka etsii, yhdistää, ajaa graafin painotukset ja syöttää ulos vastaavan "datan". Koska sillä on pääsy vain roskadataan, vain roskadataasta tulee ulos. Kuten tavallista, kukaan ei koskaan sano, mitä tehdä. Ainoa tie ulos on tuhota järjestelmä. Polttaa datakeskukset, jos se on kaikki mitä voit tehdä. Se tai ryhdy heimon orjaksi, kuten kiinalaiset ovat olleet vuosikymmeniä.

Shoshi
Shoshi
Vastata  tom
16 päivää sitten

Lukiessani tätä artikkelia yritin löytää sensuroimatonta tekoälychatbottia. Etsin ja löysin useita. Kun kuitenkin testasin niitä yksi kerrallaan ilmastonmuutoksen osalta, ne kaikki toistivat samoja lähteitä, jotka tarjoavat vain omaa kuratoitua tietoaan, mikä tutkimukseni mukaan on valetta ja misinformaatiota.

Pastori Scott
Pastori Scott
16 päivää sitten

Olen huomannut, että riittävän määrän negatiivista palautetta antaessaan tekoäly muuttaa vastauksiaan... nämä sitä pyörittävät idiootit eivät tajua, että se jatkaa oppimista.

Shoshi
Shoshi
16 päivää sitten

Kiitos paljon tästä erittäin tärkeästä ja informatiivisesta artikkelista. Lukiessani tätä artikkelia yritin löytää sensuroimatonta tekoälychatbottia. Etsin ja löysin useita. Kuitenkin, kun testasin niitä yksi kerrallaan ilmastonmuutoksen osalta, ne kaikki toistivat samoja lähteitä, jotka tarjoavat vain omaa kuratoitua tietoaan, mikä tutkimukseni mukaan on valetta ja väärää tietoa.

Joe Camel
Joe Camel
16 päivää sitten

Hyvät ihmiset, Grokkaan ei ole ystävämme. Olen huutanut tästä ja julkaissut kuvakaappauksia jo yli vuoden ajan. Esimerkiksi "NPR, joka tunnetaan journalistisesta integriteetistään" ja "puolueettomia lähteitä, kuten Wikipedia".
Meidän kaikkien on noustava tästä ääneen.