
Això és un no aturar de mitjans de comunicació amb influència fan d’altaveu als agorers contra la IA. Em segueix cridant l’atenció que sigui precisament ara que sentin la necessitat de ficar-nos la por (terror seria més adequat) a la IA, quan fa dècades que conviu amb nosaltres. Però em crida més l’atenció que el gran problema immediat sigui suposadament una tecnologia que potencialment és most útil, i no perills reals i presents com el punt de no retorn del canvi climàtic o l’armament nuclear i la guerra a Europa. No m’agradaria tenir raó, però des de la meva humil opinió, potser aquesta AGI Terminator no trobi res humà que aniquilar.
Aquesta síndrome Skynet té una circumstància: cada cop han de posar el llistó de la por més alt. El setmanari Time d’aquesta setmana dedica la portada a aquest tema, i francament crec que apunta molt amunt. La portada és aquesta:

Promet, no? L’article original és aquí:
Yudkowsky, E. (2023, March 29). Pausing AI developments isn’t enough. We need to shut it all down. Time. https://time.com/6266923/ai-eliezer-yudkowsky-open-letter-not-enough/
I pots trobar la traducció al català aquí.
Anàlisi crítica de l’article
Comença a ser evident la forma d’actuar: se cerca un científic que ha estat relacionat amb la IA que renega de la seva contribució, que mostra un penediment inequívoc i que vol alertar l’opinió pública sobre la catàstrofe imminent. Ja sabeu que no és la guerra europea ni la crisi climàtica, sinó la destrucció de l’espècie humana immediata per part de la IA. Notem que aquesta pauta de comportament ha començat just quan OpenAI ha llançat ChatGPT, no abans.
Els mitjans de comunicació s’encarreguen de donar ressò a aquests missatges apocal·líptics hiperbòlics, exageradíssims i, sobretot, sense aportar dades concretes que puguin aval·lar tan terribles prediccions.
La sobreactuació té com a conseqüència posar el llistó cada cop més alt. Com veiem a la portada del Time l’extinció de la humanitat per part de la IA és una certesa, el titular ja no va acompanyat d’un interrogant (tot i que el subtitular encara sí).
Aquest article aborda el tema de la IA i les seves implicacions potencials per a la humanitat. El seu autor, Yudkowsky, proposa una visió prou pessimista i alarmant sobre el futur d’aquesta tecnologia.
Començant per l’estil utilitzat, l’autor usa una retòrica alarmista que pot ser contraproducent. L’ús freqüent de metàfores dramàtiques com “la humanitat s’enfronti a una intel·ligència superhumana hostil és una derrota total” o “si t’equivoques en el primer intent, no tens l’oportunitat d’aprendre dels teus errors, perquè estàs mort” pot generar por i inseguretat en el lector. Aquesta estratègia pot ser útil per destacar la urgència de la situació, però també pot polaritzar el debat, dificultant un diàleg raonat sobre la matèria.
Per altra banda, l’autor fa una sèrie d’afirmacions que semblen més especulatives que basades en fets sòlids. Per exemple, afirma que “Si algú construeix una IA massa potent, en les condicions actuals, espero que cada membre de l’espècie humana i tota la vida biològica a la Terra mori poc després”. Aquesta afirmació està basada en suposicions sobre la capacitat de l’IA de desenvolupar intencions i objectius propis, una suposició que no és avalada per l’evidència científica actual.
A més, l’article inclou afirmacions que podrien considerar-se responsabilitzants, com ara: “La norma que la majoria de persones conscient d’aquestes problemes hauria aprovat 50 anys abans, era que si un sistema d’IA pot parlar amb fluïdesa i diu que és conscient de si mateix i demana drets humans, això hauria de ser un aturada en sec per part de les persones que simplement posseissin aquella IA”. Aquestes declaracions semblen culpar la indústria de la IA per no prendre accions que no estaven clarament definides ni acceptades universalment.
A pesar d’aquestes crítiques, és important destacar que el debat sobre l’impacte potencial de l’IA en la humanitat és un tema crucial. Les preocupacions de l’autor sobre l’ús irresponsable de la IA i la necessitat d’un major control i regulació són legítimes i importants per a la discussió pública.
Caldria debatre aquest tema amb una actitud més constructiva, buscant solucions en lloc de propagar la por. La tecnologia de la IA és aquí per quedar-se, i la nostra tasca és trobar maneres de gestionar-la de manera efectiva i segura per a la humanitat, en lloc de fomentar una mentalitat de por i desesperació.
Una forma constructiva de debatre aquest tema podria ser organitzar fòrums de discussió oberts que incloguin tots els interessats: científics de la IA, filòsofs, docents, legisladors, i la societat en general. Alguns suggeriments podrien ser:
- Educació: Abans de debatre, és important que tothom tingui una comprensió bàsica de què és la IA i quines són les seves potencials implicacions. Organitzar tallers educatius o conferències sobre aquests temes podria ser útil.
- Fòrums de discussió: Es podrien organitzar debats o taules rodones on es convidin experts de diferents àmbits per compartir els seus punts de vista i experiències. Aquests debats haurien de ser oberts al públic i permetre preguntar i comentar.
- Debats estructurats: Una manera d’assegurar que totes les veus siguin escoltades és organitzar debats amb una estructura predefinida. Això podria implicar assignar posicions o temes específics als participants, o utilitzar una estructura com ara un debat estil Oxford per garantir que totes les perspectives siguin considerades.
- Participació pública: És crucial que la societat en general tingui una veu en aquest debat. Es podria recollir opinions a través d’enquestes o formularis en línia, o organitzar esdeveniments públics on la gent pugui compartir els seus pensaments i preocupacions.
- Promoció de l’impacte positiu de la IA: Es poden crear campanyes informatives, articles, documentals, xerrades TED, entre altres, per mostrar els casos d’èxit on la IA ha tingut un impacte positiu. Això pot incloure la IA aplicada en medicina per detectar malalties, en medi ambient per analitzar el canvi climàtic, en l’educació per personalitzar l’aprenentatge, i en molts altres àmbits. També es poden compartir històries de com la IA està ajudant a resoldre problemes complexos a nivell local i global.
- Col·laboració internacional: La IA és un tema global, així que és important que els debats no estiguin confinats a un únic país o regió. Es podria promoure la col·laboració internacional mitjançant la participació de representants de diferents països en debats o fòrums.
- Regulació i legislació: Com part d’aquest debat, també és important considerar quines regulacions o legislacions podrien ser necessàries per garantir un desenvolupament segur i ètic de la IA. Els experts en dret i política haurien de ser una part clau d’aquesta discussió.
Aplicant a la IA la dicotomia entre apocal·líptics i integrats d’Umberto Eco, podríem dir que els “apocalíptics” de la IA serien aquells que tenen una visió negativa o preocupada sobre aquesta tecnologia. Podrien veure la IA només com una amenaça per a la societat, temer que reemplaçarà llocs de treball humans, que conduirà a una vigilància massiva, o que podria causar danys imprevistos si es descontrola.
Per contra, els “integrats” de la IA serien aquells que veuen aquesta tecnologia com una part inevitable i beneficiosa del futur. Aquestes persones estarien entusiasmades amb les maneres en què la IA pot millorar les nostres vides, com ara mitjançant millores en la medicina, l’educació, la mobilitat, la sostenibilitat, etc. Acceptarien que hi haurà desafiaments en el camí, però confiarien en la nostra capacitat per superar-los.
No obstant això, com Eco assenyala, la realitat sovint es troba en algun lloc entre aquestes dues perspectives. És important reconèixer tant els riscos com els beneficis de la IA, i treballar per assegurar que es desenvolupa de manera que maximitza els beneficis i minimitza els riscos. Aquest és precisament l’objectiu del debat constructiu que proposo.
Analitzem l’article “Parar el desenvolupament de la IA no és suficient. Necessitem aturar-ho tot.” aparegut a Times © 2023 by Jaume Salvà i Lara is licensed under CC BY-NC-SA 4.0




Deixa un comentari