En el context de l’entrada de blog de Bill Gates, replicat per la carta oberta alarmista contra la IA, ahir a Vilaweb s’hi publicà un extens article de caràcter apocal·líptic, que també aposta pel camí d’assenyalar la IA com a la principal font de problemes presents i futurs. Com ja ens tenen acostumats aquests tipus de textos de divulgació de la por, els arguments són superficials i en molts casos fal·làcies. Com tot avanç tecnològic, la incertesa és indiscutible, però no hi guanyem res de destacar sistemàticament els possibles perills, en aquest cas de la IA, sense posar damunt la taula també algunes reflexions sobre les possibilitats que ofereixen.
Podeu llegir l’article aquí:
Belzunces, M. (2023, abril 8). Haurem de prohibir la intel·ligència artificial? VilaWeb. https://www.vilaweb.cat/noticies/haurem-prohibir-intelligencia-artificial/
M’he permès replicar l’article amb alguns contrapunts, per a què els lectors d’aquest blog tingueu un punt de vist alternatiu al de la sobreactuació.

Fal·làcies
- Fal·làcia de falsa equivalència: L’article compara la cursa tecnològica entre Microsoft i Google amb la cursa nuclear entre la Unió Soviètica i els EUA. Aquesta comparació és incorrecta, ja que les conseqüències i les implicacions de la tecnologia nuclear són molt diferents de les de la intel·ligència artificial. A continuació, es descriuen alguns dels aspectes que contradiuen aquesta fal·làcia:
- Habilitats úniques dels humans: Malgrat els avanços en IA, els éssers humans tenen habilitats úniques que les màquines no poden replicar completament. Aquestes habilitats inclouen la creativitat, l’empatia, l’intuïció i la capacitat de comprendre i interpretar el context social i cultural en el qual es desenvolupen les activitats. Aquestes habilitats són fonamentals en moltes professions, com ara l’art, la psicologia, la política i la diplomàcia, on la IA pot servir com a eina de suport, però no com a substitut de la interacció humana.
- Responsabilitat i ètica: Les decisions que afecten les persones i la societat en general impliquen consideracions ètiques i valors morals. La IA pot ser programada per seguir directrius i criteris definits pels humans, però no pot tenir consciència ni assumir responsabilitat moral. Les persones han de seguir sent responsables de les decisions importants i garantir que la tecnologia s’utilitzi de manera ètica i justa.
- Adaptabilitat i aprenentatge: Encara que la IA pot aprendre i adaptar-se a partir de dades i experiències, la seva capacitat d’adaptació és limitada en comparació amb la dels éssers humans. Els humans poden aprendre i adaptar-se a situacions noves i imprevistes de manera més efectiva, mentre que les màquines normalment requereixen dades i instruccions específiques per realitzar canvis en les seves funcions.
- Col·laboració entre humans i màquines: En lloc de substituir als humans, és més realista considerar que la IA pot complementar les habilitats humanes i augmentar la nostra capacitat de resoldre problemes complexos. La combinació de la intel·ligència humana i artificial pot produir resultats millors que els que s’obtindrien amb qualsevol d’elles per separat.
- Generalització excessiva: L’article afirma que la IA causarà desocupació en massa i empobriment. Tot i que hi ha preocupacions vàlides sobre el seu impacte en l’ocupació, aquesta visió simplista no té en compte els beneficis potencials ni les mesures que es poden prendre per assegurar que l’ús de la IA sigui segur i responsable. A continuació, es descriuen alguns aspectes que contradiuen aquesta fal·làcia:
- Beneficis potencials de la IA: La IA té el potencial d’aportar beneficis significatius en diverses àrees, com ara la medicina, l’educació, la recerca científica, la producció agrícola i el medi ambient. Per exemple, la IA pot ajudar en la diagnosi i el tractament de malalties, millorar l’eficiència energètica, optimitzar les cadenes de subministrament i contribuir a la resolució de problemes complexos com el canvi climàtic. Descartar aquesta tecnologia a causa dels riscos potencials implica ignorar les seves múltiples aplicacions positives.
- Regulació i polítiques: Com en qualsevol tecnologia, és possible establir regulacions i polítiques que ajudin a mitigar els riscos associats amb la IA. Aquestes mesures poden incloure el desenvolupament de normes ètiques, l’establiment de mecanismes de responsabilitat i transparència, i la promoció de la recerca en seguretat de la IA. En lloc de rebutjar la IA per la seva naturalesa potencialment perillosa, les societats haurien d’explorar com implementar la IA de manera segura i responsable.
- Educació i conscienciació: Un dels passos més importants per abordar els riscos de la IA és educar a les persones sobre els seus potencials beneficis i perills. Aquesta conscienciació permetrà als individus, empreses i governs prendre decisions informades sobre l’ús de la IA, incloent-hi les mesures de protecció i seguretat necessàries.
- Col·laboració internacional: Per abordar els desafiaments globals plantejats per la IA, és essencial fomentar la col·laboració entre països, organitzacions i sectors. Això pot incloure compartir coneixements i recursos, establir aliances per a la recerca i desenvolupament, i treballar conjuntament per crear un marc regulatori internacional que garanteixi la seguretat i la justícia en l’ús de la IA.
- Fal·làcia de la pendent lliscant: L’article argumenta que si es permet el desenvolupament de la IA, això portarà a la singularitat tecnològica, en què les màquines superaran la intel·ligència humana i posaran en risc la nostra existència. Aquesta argumentació simplifica excessivament la realitat i ignora molts altres factors que afecten el mercat laboral. A continuació, es detallen alguns dels factors que haurien de tenir-se en compte al debatre aquest tema:
- Canvis en la demanda del mercat: La desocupació i l’empobriment no es poden atribuir exclusivament a la IA. El mercat laboral està en constant evolució, i la demanda de determinades habilitats i professions canvia amb el temps. Les innovacions tecnològiques poden crear noves oportunitats de treball i extingir-ne altres, però aquest procés ha estat una constant al llarg de la història humana, no només amb la IA.
- Polítiques governamentals: Les polítiques fiscals, socials i laborals adoptades pels governs poden tenir un impacte significatiu en la desocupació i les condicions laborals. La falta d’inversió en educació, per exemple, pot deixar als treballadors mal preparats per adaptar-se a les noves tecnologies. Així mateix, polítiques inadequades de protecció social i laboral poden contribuir a la precarietat laboral i la desigualtat.
- Desigualtat econòmica: L’empobriment dels treballadors també pot ser conseqüència de la creixent desigualtat econòmica, que no és causada únicament per la IA. Factors com la globalització, la desregulació dels mercats financers i les polítiques fiscals han contribuït a l’augment de la desigualtat en molts països. Aquesta desigualtat pot fer que els treballadors tinguin més dificultats per mantenir-se al dia amb les noves tecnologies i adaptar-se a les noves demandes del mercat laboral.
- Decisions empresarials: Les empreses tenen un paper important a l’hora de determinar les condicions laborals i les oportunitats d’ocupació. Les decisions de les empreses en matèria d’inversió, contractació i formació dels empleats poden tenir un impacte directe en la desocupació i l’empobriment dels treballadors. Algunes empreses poden optar per adoptar tecnologies de IA que substitueixin els treballadors humans, mentre que altres poden optar per utilitzar la IA per complementar i millorar el treball humà.
- Argumentum ad hominem: L’article desacredita l’opinió de Bill Gates sobre la IA, suggerint que la seva postura no és neutral a causa de l’interès de Microsoft en la tecnologia. L’autor desacredita l’opinió de Bill Gates sobre la IA, suggerint que la seva postura no és neutral a causa de l’interès de Microsoft en la tecnologia. Aquest atac a la persona no aborda directament els arguments de Gates sobre la IA i desvia l’atenció dels temes importants en joc. Per superar aquesta fal·làcia, l’autor de l’article hauria d’abordar directament els arguments de Gates sobre la IA i proporcionar una anàlisi substantiva de les seves idees. Això podria incloure examinar les evidències i raons que Gates presenta per justificar la seva posició, i analitzar si aquestes raons són vàlides o no. D’aquesta manera, es pot tenir un debat més productiu i informatiu sobre la IA en lloc de centrar-se en atacs personals. Per analitzar aquesta fal·làcia més a fons, és important entendre els seus components principals:
- Atac personal: L’autor de l’article intenta menysprear la credibilitat de Bill Gates, suggerint que no pot ser neutral a causa de les connexions de la seva empresa amb la tecnologia de la IA. Aquest atac personal no té relació amb els arguments reals que Gates podria presentar sobre els beneficis i riscos de la IA.
- Desviació de l’argument: En lloc de centrar-se en les idees i arguments que Gates podria haver presentat, l’autor de l’article desvia l’atenció cap a la seva suposada falta de neutralitat. Aquesta tàctica fa que els lectors es centrin en l’autoritat o la imparcialitat de Gates en lloc de les seves idees sobre la IA.
- Falta d’anàlisi substantiva: Com a resultat d’aquest atac ad hominem, l’autor de l’article no aborda de manera efectiva els arguments o les idees de Gates sobre la IA. Això pot deixar als lectors sense una comprensió clara de les raons per les quals Gates podria tenir una perspectiva positiva o negativa sobre la tecnologia.
- Fal·làcia de composició: L’article critica la IA basant-se en els problemes causats per altres tecnologies, com les xarxes socials i els mòbils, assumint que la IA també tindrà efectes perjudicials similars. Aquesta fal·làcia es produeix quan algú assumeix que el que és cert per a una part d’un tot, també ho és per al conjunt en sí. Per analitzar-a més a fons en el context de l’article, és important comprendre els seus components principals:
- Generalització incorrecta: L’autor de l’article assumeix que, ja que altres tecnologies han causat problemes en el passat, la IA també ho farà. Aquesta generalització incorrecta no té en compte les diferències fonamentals entre la IA i altres tecnologies, com les xarxes socials i els mòbils.
- Ignorar les diferències: La fal·làcia de composició ignora les diferències entre les diverses tecnologies i les seves aplicacions. Per exemple, les xarxes socials poden haver contribuït a la desinformació i la polarització, però això no significa que la IA, que pot ser utilitzada en una gran varietat d’aplicacions, tingui necessàriament els mateixos efectes negatius.
- Simplificació excessiva: La fal·làcia de composició pot conduir a una simplificació excessiva del debat sobre la IA. En lloc d’examinar els avantatges i desavantatges específics de la IA, l’autor de l’article es centra en els problemes que han sorgit amb altres tecnologies i assumeix que aquests problemes es traslladaran a la IA.
Contraarguments
Anem a predicar amb l’exemple. Si fins ara he destacat les fal·làcies, ara toca exposar i desenvolupar alguns contraarguments que poden contribuir a un debat més equilibrat i profund sobre el futur de la IA i les seves implicacions en la nostra societat.
- Potencial positiu de la IA: L’article es centra en gran part en els possibles problemes i perills de la IA, però no considera suficientment els seus avantatges i potencial positiu. La IA pot ser utilitzada per millorar la vida de les persones en àmbits com la medicina, la investigació científica, la reducció de la contaminació i l’educació, entre d’altres. El debat sobre la IA hauria d’incloure tant els seus avantatges com els seus desavantatges per a una discussió més equilibrada.
- Regulació i control: L’article no aborda la importància de la regulació i el control en el desenvolupament de la IA. Per prevenir possibles conseqüències negatives, podem implementar regulacions i controls més estrictes per garantir que la IA sigui utilitzada de manera ètica i responsable. Això inclou la creació de normes legals, la transparència en el desenvolupament de la IA i la promoció de la recerca en IA segura.
- La neutralitat de la postura de Bill Gates: Encara que l’article argumenta que la postura de Bill Gates no és neutral a causa de l’interès de Microsoft en la IA, això no invalida automàticament les seves opinions. Gates pot tenir coneixements i experiència valuosa en aquest camp, i els seus arguments haurien de ser considerats en funció del seu mèrit, independentment del seu interès en la tecnologia.
- No generalitzar els problemes de les altres tecnologies a la IA: És important no assumir que la IA tindrà els mateixos problemes que altres tecnologies, com les xarxes socials i els mòbils. Cada tecnologia té les seves pròpies aplicacions i implicacions, i és important examinar els problemes específics relacionats amb la IA en lloc de generalitzar-los des de tecnologies no relacionades.
- La diversitat en el camp de la IA: L’article podria donar l’impressió que la IA és un camp monolític, però en realitat és un camp molt divers, amb molts subcamps i aplicacions. És important tenir en compte aquesta diversitat en qualsevol discussió sobre la IA, per no simplificar excessivament els debats ni les preocupacions.
- La necessitat de debat públic i educació: L’article posa de manifest preocupacions vàlides sobre la IA, però en lloc de rebutjar la tecnologia per complet, caldria promoure un debat públic més ampli i una educació sobre la IA. Això permetria a les persones entendre millor les seves implicacions i participar en les decisions que afecten el seu futur. També és important formar professionals en ètica i responsabilitat en el camp de la IA per assegurar-se que les seves aplicacions siguin beneficioses per a la societat en general.
- Aprendre dels errors passats: És cert que altres tecnologies, com les xarxes socials i els mòbils, han causat problemes inesperats. No obstant això, en lloc de rebutjar la IA a causa d’aquests problemes, podem aprendre d’aquestes experiències passades i aplicar aquestes lliçons al desenvolupament de la IA. Això ens permetrà abordar millor els riscos i les preocupacions relacionades amb la IA i guiar el seu desenvolupament de manera més responsable.
- Cooperació internacional: La IA és una tecnologia que trascendeix fronteres, i els seus efectes s’estenen per tot el món. Per abordar adequadament els reptes i les preocupacions plantejades per l’article, és important fomentar la cooperació internacional i el diàleg entre països i organitzacions. Això pot incloure acords globals sobre regulacions, normes ètiques i mecanismes de control per assegurar que la IA sigui utilitzada de manera responsable i beneficiosa per a tots.




Deixa un comentari