
Fa poc comentàrem la carta oberta a favor d’una moratòria de la investigació de la IA. Un dels signants va ser l’historiador, filòsof i autor de gran èxit de vendes israelià Yuval Noah Harari. Dia 23 d’abril de 2023 Harari va fer unes declaracions en solitari que publicà el The Telegraph. Les podeu trobar aquí:
de Quetteville, H. (2023, April 23). Yuval Noah Harari: ‘I don’t know if humans can survive AI.’ Sunday Telegraph. https://www.telegraph.co.uk/news/2023/04/23/yuval-noah-harari-i-dont-know-if-humans-can-survive-ai/
La notícia original no és pot llegir si no estàs subscrit al mitjà, però a continuació teniu la transcripció íntegra en català i després, com ja comença a ser habitual, l’analitzarem de forma crítica. Amb el nom ja podem veure que insisteix en fer por en aquest tema específic, magnificant-lo a l’hora que altres més imminents no semblen crear tanta preocupació. Poc a poc i sense pausa, es va teixint un discurs apocal·líptic contra una eina que en si mateixa és neutral. Es pot dir el mateix d’altres tecnologies que no desperten tanta preocupació?
No sé si els humans poden sobreviure a la IA
Les històries sempre han estat vitals per a Yuval Noah Harari, l’historiador i filòsof israelià. La capacitat única de la nostra espècie de ser lligada i unida per narratives intangibles, fins i tot a través d’oceans, va ser central en Sapiens, la seva crònica increïblement popular sobre l’ascens de la nostra espècie, que el va catapultar a l’estatus de vident després de la seva publicació en anglès fa gairebé una dècada.
Potser per això està tan profundament preocupat avui pel sorgiment d’un rival en la nostra mestria narrativa: la intel·ligència artificial (IA).
“Aquesta és la primera tecnologia de la història que crea històries”, diu Harari, de 47 anys, parlant amb mi des de la seva casa als afores de Tel Aviv. Per a ell, res podria ser una demostració més gran de poder. Perquè en la seva opinió, la nostra creença col·lectiva en “històries” – de fe, finances i nació, entre d’altres – ha impulsat la dominació de la humanitat a la Terra. Els diners ens han permès prosperar, per exemple, però quin valor té el bitllet de cinc lliures a la butxaca si el botiguer el desestima com a simple tros de paper blau?
Ara la IA pot teixir aquests encanteris també, mostrant que el potencial de la tecnologia tant per al gran bé com per al mal, una vegada considerat llunyà i teòric, és ara immediat i real. És per això que Harari va afegir el seu nom a una carta el mes passat, signada per milers d’experts, incloent Elon Musk, demanant una moratòria en la investigació de programari com Chat GPT, un model d’IA que pot interactuar amb humans de manera gairebé inquietantment matissada i creativa en text.
Altres programes poden fer el mateix amb imatges i sons. “La nova generació d’IA no només està difonent el contingut que produeixen els humans. Pot produir el contingut per si mateixa”, diu Harari. “Intenta imaginar què significa viure en un món on la majoria de textos, melodies, sèries de televisió i imatges són creades per una intel·ligència no humana. Simplement no entenem què significa. Quines podrien ser les conseqüències de l’IA prenent el control de la cultura?”
Ja existeixen exemples trivials. La setmana passada una revista alemanya va ser criticada per publicar el que semblava ser una entrevista exclusiva amb Michael Schumacher, quan de fet el text va ser generat per una IA imitant l’expilot de curses paralitzat. Harari suggereix que l’IA avançarà molt més, evocant un món en què “entres a internet i discuteixes amb algú sobre algun tema polític. Potser fins i tot t’envien un vídeo d’ells mateixos parlant. Però no hi ha cap persona darrere. Tot és IA.”
En la seva distopia, tampoc la falsificació digital sintètica seria només d’un ésser humà qualsevol. Com que estem influenciats de manera única per aquells que ens envolten, podria semblar un amic o familiar, intentant convèncer-te dels mèrits d’un producte, o la seva posició sobre el canvi climàtic, les vacunes o la immigració. Seria, diu, un poder per manipular el discurs públic mai vist abans, i que faria que els escàndols virals en xarxes socials dels últims 10 anys, ja considerats com a factors en eleccions des de Brasil fins als Estats Units, semblin insignificants. Jeremy Fleming, el cap del GCHQ, ha advertit al gabinet que la desinformació mitjançant IA suposa una amenaça significativa.
“Això és especialment una amenaça per a les democràcies més que per als règims autoritaris, perquè les democràcies es basen en la conversa pública”, diu Harari. “La democràcia bàsicament és conversa. Les persones parlant entre si. Si la conversa és controlada per l’IA, la democràcia s’acaba.”
Però quin efecte podria tenir la tecnologia si es desencadenés maliciosament en el camp de batalla, per part de règims totalitaris? Un sistema d’IA de Google, per exemple, va aprendre bengalí sense ser entrenat per fer-ho.
“El règim nazi es basava en tecnologies com trens, electricitat i ràdios. No tenien eines com la intel·ligència artificial”, diu Harari. “Un nou règim al segle XXI tindrà eines molt més poderoses. Així que les conseqüències podrien ser molt més desastroses. Això és una cosa que no sé si la humanitat pot sobreviure.”
Conseqüències encara més banals tenen el potencial de ser revolucionàries, diu. “Un altre perill és que moltes persones podrien trobar-se completament sense feina, no només temporalment, sinó sense les habilitats bàsiques per al futur mercat laboral. Podríem arribar a un punt on el sistema econòmic veu milions de persones com a completament inútils. Això té terribles conseqüències psicològiques i polítiques.”
És l’autonomia de l’IA la que la fa tan diferent. No obstant això, fins i tot Harari, que s’ha fet un nom simplificant temes complexos, sembla frustrat per la seva incapacitat per fer que la resta de nosaltres ho vegi tan profundament com ell.
“Necessitem entendre que l’IA és la primera tecnologia de la història que pot prendre decisions per si mateixa. Pot prendre decisions sobre el seu propi ús. També pot prendre decisions sobre tu i jo. Això no és una predicció futura. Això ja està passant.”
Parla de casos notoris en què el programari d’IA s’ha utilitzat per avaluar sol·licitants de préstecs o decidir si els presoners haurien de rebre llibertat condicional. “Així que el poder s’està desplaçant per primera vegada en la història. Hem inventat alguna cosa que ens treu el poder. I està passant tan ràpid que la majoria de la gent ni tan sols entén què està passant. Hem de garantir que l’IA prengui bones decisions sobre les nostres vides. Això és una cosa que estem molt lluny de resoldre.”
Com altres, ara defensa la regulació per gestionar el poder de l’IA: aprofitar les seves promeses i prevenir catàstrofes. A la ment de Harari, aquestes normes emularien les mesures de seguretat mèdiques. “Una empresa farmacèutica no pot llançar un nou medicament al mercat sense passar primer per un llarg procés regulatori. És realment estrany i espantós que les corporacions puguin simplement llançar eines d’IA extremadament poderoses a l’àmbit públic sense cap mesura de seguretat similar.”
Aquestes mesures haurien de ser aplicades pel govern, insisteix. Esperar que la indústria tecnològica es reguli a si mateixa no té cap sentit. “Amb tot el respecte cap a Elon Musk i Zuckerberg o els altres caps de les grans empreses tecnològiques, no han estat escollits per ningú, no representen a ningú excepte als seus accionistes i no hi ha cap motiu per confiar en ells.” Com si volgués demostrar el punt de Harari, Musk va anunciar el seu propi xatbot d’IA només uns dies després de signar la carta que denunciava la investigació dels altres.
Potser no és cap sorpresa, llavors, que Harari mantingui el seu propi telèfon apagat, “dins un calaix”. Ell el denomina “un smartphone d’emergència” per quan viatja a l’estranger, cosa que ha fet molt més durant l’última dècada, des que es va convertir en una superestrella intel·lectual global.
“S’ha tornat realment impossible fer algunes coses sense un smartphone“. Hom pensa en ell intentant demanar un taxi en un viatge a l’estranger i fracassant. El que no troba a faltar de la seva pantalla de butxaca, però, és la distracció d’informació que s’aboca al seu cervell. Es declara en “una dieta d’informació”.
“Hi ha massa informació inútil”, diu. “És com el menjar. Durant la major part de la història humana, estàvem desesperadament intentant obtenir més menjar. I ara estem en la situació oposada. Hem de ser molt acurats tant amb les quantitats com amb la qualitat del menjar que consumim.”
Contrasta la concentració i l’elecció activa que hi ha en “llegir” amb aquest “consum” passiu i absort d’informació. És difícil imaginar Harari fent qualsevol cosa d’una manera tan poc reflexiva. Li agrada tenir temps i tranquilitat per compondre els seus pensaments, i sempre ha estat interessat en la meditació per assegurar-se que està mentalment sintonitzat per mantenir les distraccions a ratlla. “Acabo de tornar d’un retir de meditació de dos mesos”, diu. “Pots dir que és part de la dieta d’informació… un període per desconnectar i permetre que la ment es desintoxiqui de tota la brossa que prenem.”
Potser Harari pot permetre’s prendre tant de temps lliure gràcies a la seguretat financera que la seva fama li ha proporcionat (en un perfil del New Yorker, es va suggerir que el seu honorari per un sol discurs de 24 minuts ascendia a diversos centenars de milers de dòlars). Però el seu interès per la meditació és anterior al seu èxit, i el seu instint per fer una pausa, reflexionar sobre grans temes i establir connexions entre ells va començar molt abans, quan va descobrir que ser gai en la seva joventut el convertia en una mena de marginat, observant la resta de la societat i intentant explicar-la. “Israel als anys 80 era molt homofòbic”, diu.
Va créixer prop de Haifa, al nord d’Israel, com el fill més jove i precoçment brillant (té dues germanes majors) de Shlomo, un contractista de defensa, i Pnina Harari. A la fi de la seva adolescència, es va inclinar cap a la història medieval, que va estudiar a la Universitat Hebrea de Jerusalem fins al 1998, quan es va traslladar al Jesus College d’Oxford per completar el seu doctorat.
Harari va tornar a Israel el 2003, l’any en què la Universitat Hebrea (coneguda com a Hebrew U) va començar a oferir un curs d’introducció per a estudiants de grau anomenat “Una introducció a la història del món”. Com a especialistes, els acadèmics consolidats tendien a evitar un curs tan ampli, així que com a membre novell i júnior del professorat, Harari es va trobar ensenyant-lo. Nerviós, va escriure els guions per a les seves 20 conferències. Aquests es convertirien en la base de Sapiens.
Però això fa que el seu camí cap a la fama i la riquesa sembli senzill. De fet, el manuscrit de Sapiens va ser rebutjat repetidament a Israel, i després, quan finalment va trobar un editor, va romandre sense traduir durant diversos anys. Harari fins i tot va recórrer a traduir-lo ell mateix a l’anglès i a utilitzar el servei d’impressió a demanda d’Amazon.
Va ser una lluita que potser no hauria tingut la determinació de dur a terme sense la tenacitat del seu marit, Itzik Yahav, amb qui es va conèixer a través d’un lloc de cites el 2002. Yahav no només va ajudar a enlairar la carrera de Harari, sinó que ha estat un factor clau per assegurar que després ha volat tan alt, fins al punt que ara té una oficina ben dotada de personal que és l’enveja d’altres intel·lectuals públics. “Si només hagués estat per mi, fa molt de temps que hauria col·lapsat o hauria renunciat”, va dir un cop Harari parlant de Yahav.
Des de llavors, Harari ha publicat dos altres llibres d’història àmplia: Homo Deus (2016) i 21 lliçons per al segle XXI (2018). L’any passat va publicar el seu primer llibre per a nens, Unstoppable Us: How Humans Took Over the World, i Sapiens també s’ha adaptat a una sèrie de novel·la gràfica. Però la seva preocupació més urgent avui és l’estat de la seva pròpia nació, especialment els plans de la coalició liderada per Benjamin Netanyahu per retallar els poders del Tribunal Suprem d’Israel, que actualment actua com a fre únic al poder legislatiu.
“El govern està bàsicament intentant establir una dictadura aquí”, diu Harari, amb un to més afilat al seu estil metòdic habitual. “Crec que hi ha una amenaça real per a la supervivència de la democràcia israeliana”. Afirma que és “absolutament cert” que israelians i empreses israelianes estan marxant perquè “el govern està intentant desmantellar els controls i contrapesos de la democràcia israeliana”.
“Si el parlament israelià aprova una llei que, per exemple, retira els drets de vot dels ciutadans àrabs, i alguns polítics han estat parlant de justament aquesta llei, la única institució que pot intervenir, derogar aquesta llei és el Tribunal Suprem”.
Diu que alguns membres de la coalició volen ser capaços de “manipular les eleccions”, “ja han preparat una llarga llista de lleis i regulacions que discriminaran els ciutadans àrabs, les dones, les persones LGBT, les persones laiques” i “tenen visions messiàniques i una forta creença en la supremacia jueva”.
Tot i que les mesures s’han aturat arran de les enormes protestes al carrer, “la crisi encara està en curs”, afirma. “I si el govern aconsegueix el que vol, llavors Israel seguirà el mateix camí que Turquia i Rússia, que encara poden celebrar eleccions periòdiques, però ja no són veritables democràcies”.
Les comparacions amb el règim de Viktor Orban a Hongria no són adequades, diu, perquè Israel és “una gran potència militar amb capacitats nuclears i també amb capacitats cibernètiques que realment tenen un abast global. La gent del Regne Unit hauria de preocupar-se pel que està passant a Israel perquè podria desestabilitzar tot l’Orient Mitjà amb conseqüències immediates també per a Europa”.
El meu temps amb l’oracle passa volant. Si estigués pagant, ja hauria superat el milió de dòlars. Parlem de la guerra d’Ucraïna (“les conseqüències per a la humanitat podrien ser tràgiques”); el canvi climàtic (“he sentit dir que el canvi climàtic és quelcom amb què les democràcies són inherentment incapaces de lidiar perquè és un problema a llarg termini. No crec que sigui veritat.”); confinaments per la Covid (“en les primeres etapes de la pandèmia, quan encara no sabíem amb què ens enfrontàvem, les mesures extremes eren més justificades”); drets dels transgènere (“la meva posició personal és tradicional. Crec que el sexe és un fenomen biològic objectiu mentre que el gènere és cultural”); la coronació (“És molt difícil en un sol país fer que desenes de milions de persones visquin juntes i estiguin d’acord en alguna cosa. A Gran Bretanya, la família reial té un paper simbòlic molt important a exercir”). Finalment, acabem parlant de la felicitat. Harari conclou Sapiens assenyalant que, malgrat els enormes augments de la nostra prosperitat, la humanitat “sembla tan descontenta com sempre”. Li passa el mateix a ell?
“La meva vida va canviar completament [amb la fama]”, diu. “Fa deu anys ningú no volia entrevistar-me sobre res. Així que tenia molt de temps per llegir llibres i després escriure les meves coses. La fama a nivell personal, generalment només crea més problemes”. Tot i això, els amics, la meditació i la teràpia, i deixar de banda les angoixes de la joventut signifiquen que “estic més feliç ara”.
És una manera optimista d’acabar una conversa amb un home que, com alguns oracles antics, de vegades és criticat per oferir una anàlisi fosca de la condició humana sense oferir cap remei (la seva obra més famosa conclou: “El règim Sapiens a la Terra fins ara ha produït poc de què podem estar orgullosos”).
Però, quan acabem, no és la seva capacitat per descriure elegantment tantes catàstrofes potencials el que em resulta profundament inquietant, sinó la seva incapacitat per dir per què la nostra espècie té aquesta tendència a causar estralls. Les seves paraules ressonen als meus oïts: “El millor que puc dir és que la història està plena d’errors. Molts esdeveniments importants no són el resultat d’algunes forces inevitables de la història. Són simplement el resultat de les persones que cometem errors terribles. La cosa bàsica que cal assumir és que les persones som fal·libles. Som corruptibles. Una bona institució o un bon país és aquell que gaudeix de forts mecanismes d’autocorrecció.”
Com el Tribunal Suprem d’Israel. És una lliçó, creu, no només clau per a la supervivència de la seva nació com a democràcia, sinó per a la supervivència del món en sí.
Anàlisi crítica
El text presenta la perspectiva preocupada i crítica de Harari sobre el desenvolupament de la IA, en concret, les seves implicacions en la societat i la cultura. A continuació presentem una anàlisi crítica de les possibles fal·làcies i parcialitats en el text:
- Parcialitat en la presentació de les aplicacions de la IA: El text destaca principalment les possibles amenaces i problemes que la IA pot crear, com la manipulació del discurs públic, la desinformació i la pèrdua de llocs de treball. No obstant això, hi ha moltes altres aplicacions de la IA que han tingut impactes positius en àrees com la medicina, la ciència, l’educació i l’economia. Presentar només una visió negativa de la IA pot resultar en una anàlisi parcial i alarmista.
- Fal·làcia de la pendent lliscant: El text presenta una visió distòpica del futur amb la IA, on la majoria dels continguts culturals estan creats per màquines i la democràcia s’acaba a causa de la manipulació de la conversa pública. Aquesta visió pot ser considerada com una fal·làcia de la pendent lliscant, ja que suposa que el desenvolupament de la IA conduirà inevitablement a aquest escenari negatiu sense considerar possibles contramesures, regulacions o desenvolupaments tecnològics que podrien prevenir aquestes conseqüències.
- Fal·làcia de l’home de palla: El text posa en qüestió la confiança en els líders de les empreses tecnològiques per regular-se a si mateixos, però no ofereix cap argument real perquè això sigui una mala idea més enllà de la falta de representativitat democràtica. Aquest argument podria considerar-se un home de palla, ja que es centra en un aspecte poc rellevant per desacreditar la capacitat d’autoregulació de les empreses tecnològiques.
- Generalització apressurada: El text menciona casos específics d’ús problemàtic de la IA, com la falsa entrevista amb Michael Schumacher o l’ús de programari d’IA per avaluar sol·licitants de préstecs i presoners. Si bé aquests exemples són preocupants, no necessàriament representen una tendència general en l’ús de la IA. Utilitzar aquests exemples per sostenir que la IA és inherentment perillosa podria ser considerat una generalització apressurada.
- Apel·lació a la por: El text apel·la a la por dels lectors en suggerir que un règim totalitari amb accés a la IA podria tenir conseqüències “molt més desastroses” que el règim nazi. Aquesta comparació dramàtica pot ser vista com una apel·lació a la por per influir en la percepció del lector sobre la IA.
- Biaix de negativitat: El text se centra principalment en les conseqüències negatives potencials de l’IA, com ara la desinformació, la manipulació política i la pèrdua de llocs de treball. Si bé aquestes preocupacions són vàlides, l’article no aborda adequadament els beneficis potencials de l’IA, com ara l’augment de l’eficiència, les innovacions mèdiques o la solució de problemes complexos.
- Fals dilema: L’article presenta una visió que sembla oposar-se a la IA i la humanitat, com si l’ús de l’IA impliqués necessàriament la pèrdua de control humà. No obstant això, és possible que la IA i la humanitat puguin coexistir i col·laborar per aconseguir objectius comuns.
- Supòsits no provats: El text fa afirmacions especulatives sobre l’efecte de la IA en el futur, com ara la suposada pèrdua de llocs de treball, l’efecte en les democràcies i la possible utilització maliciosa en el camp de batalla. Tot i que aquestes prediccions poden ser vàlides, no es presenten evidències concretes per respaldar-les.
- Falta de perspectives alternatives: L’article presenta majoritàriament les opinions de Harari i no inclou veus alternatives que puguin oferir una visió més equilibrada o debatre sobre les implicacions de l’IA en la societat.
- Apel·lació a l’autoritat: L’article fa servir les opinions d’Harari, un expert en història i filosofia, com a base per argumentar sobre les implicacions de l’IA en la societat. Tot i que Harari és un expert en aquests camps, no és necessàriament un expert en IA, la qual cosa pot limitar la seva comprensió i perspectiva en aquest àmbit.
Què falta a l’article?
Per abordar aquestes fal·làcies i parcialitats, caldria ampliar la discussió per incloure veus alternatives, així com proporcionar exemples concrets i evidències que respaldin les afirmacions fetes. Això inclou:
- Incloure experts en IA: És important incloure les opinions d’experts en IA que puguin proporcionar una visió més detallada i contextualitzada de les capacitats i limitacions de l’IA. Això podria ajudar a aclarir quines preocupacions són reals i quines podrien ser exagerades o infundades.
- Examinar casos d’èxit i fracàs de l’IA: Analitzar casos concrets d’èxit i fracàs en l’ús de l’IA pot proporcionar una visió més equilibrada de les seves conseqüències potencials. Aquest tipus d’anàlisi permetria entendre millor les oportunitats i desafiaments que presenta l’IA en diferents contexts.
- Considerar els beneficis potencials: A més de les preocupacions negatives, és important reconèixer i examinar els beneficis potencials de l’IA. Això inclou la seva capacitat per millorar l’eficiència, fomentar la innovació, proporcionar eines útils per a la recerca científica i resoldre problemes complexos.
- Discutir la regulació i l’ètica: Abordar les implicacions ètiques i la necessitat de regulacions adequades és crucial per assegurar que l’IA es desenvolupi i s’utilitzi de manera responsable. La discussió sobre la regulació de l’IA pot proporcionar una base per a les polítiques públiques que equilibren l’adopció de l’IA amb la protecció dels drets i interessos humans.
- Explorar la col·laboració entre la IA i els humans: En lloc de presentar una visió confrontacional entre la IA i la humanitat, és important explorar les maneres en què els humans podem aprofitar-nos positivament d’aquesta tecnologia.
- Promoure el debat públic: Finalment, per assegurar una discussió equilibrada i informada sobre les implicacions de l’IA, és important promoure el debat públic. Això pot incloure la participació de diverses parts interessades, com ara la indústria, els governs, els acadèmics, els activistes i el públic en general, per assegurar que totes les veus siguin escoltades i que les decisions sobre l’ús de l’IA siguin preses de manera responsable i democràtica.






Deixa un comentari