Dia 11 d’abril es publicà un article que assenyala la pressumpta preocupació d’Espanya sobre els riscos de privacitat de ChatGPT.

Imatge de Towfiqu barbhuiya a Unsplash

Podeu llegir l’article complet aquí:

Figueroa, J. C. (2023, April 11). España pide a la Unión Europea que revise los riesgos de privacidad de ChatGPT. Hipertextual. https://hipertextual.com/2023/04/espana-union-europea-riesgos-chatgpt

L’article parla de la petició de l’Agència Espanyola de Protecció de Dades (AEPD) perquè la UE analitzi els possibles riscos de privacitat relacionats amb l’ús de ChatGPT, el chatbot de OpenAI. No obstant això, l’article presenta algunes fal·làcies i inexactituds que cal destacar.

En primer lloc, l’article parla del ChatGPT com si fos una plataforma que es posa en marxa per si sola, quan en realitat es tracta d’un model de llenguatge de xarxa neuronal entrenat per OpenAI que altres empreses o desenvolupadors poden utilitzar per crear aplicacions o chatbots. Per tant, els problemes de privacitat associats al ChatGPT depenen de com s’utilitza i s’implementa el model de llenguatge, no del model en si mateix.

En segon lloc, l’article afirma que el ChatGPT “podria tenir un impacte significatiu en els drets de les persones”, sense proporcionar evidència o exemples concrets d’aquest impacte. Això pot crear una sensació d’alarma injustificada i no ajuda a entendre els veritables riscos de privacitat associats amb el model de llenguatge.

Finalment, l’article parla del bloqueig del ChatGPT a Itàlia per recollir dades personals de forma il·legal, però no especifica en què consisteix aquesta suposada recopilació il·legal de dades. Això fa que sigui difícil avaluar la gravetat dels problemes de privacitat que es poden associar amb el ChatGPT.

En resum, cal ser crítics a l’hora d’interpretar la informació sobre els problemes de privacitat associats amb el ChatGPT. És important avaluar amb precisió com s’utilitza i s’implementa el model de llenguatge i analitzar els riscos de privacitat específics que es poden derivar d’aquest ús.

Quins són els riscos i com es poden evitar?

ChatGPT, com qualsevol altre model d’Intel·ligència Artificial basat en llenguatge natural, presenta alguns riscos de privacitat que cal tenir en compte. Aquí teniu alguns dels riscos principals i les mesures que es poden prendre per evitar-los o reduir-los:

  1. Emmagatzematge i processament de dades sensibles: ChatGPT pot processar informació personal o dades sensibles introduïdes pels usuaris. Per evitar això, és important no compartir informació personal, financera o confidencial mentre s’utilitza la plataforma.
  2. Revelació involuntària d’informació: El model pot generar respostes basades en dades d’entrenament que podrien contenir informació personal d’altres usuaris. Encara que OpenAI fa servir tècniques de desidentificació i filtratge, el risc no es pot eliminar completament. Com a usuari, cal ser conscient d’això i tenir precaució amb la informació que es comparteix.
  3. Suplantació d’identitat: Algú pot intentar fer-se passar per una altra persona utilitzant ChatGPT. Per prevenir això, verifiqueu sempre la identitat de la persona amb qui esteu parlant i eviteu donar informació personal a desconeguts.
  4. Generació de contingut inadequat o ofensiu: ChatGPT pot generar textos que siguin ofensius, inexactes o inadequats. Per contrarestar això, es poden utilitzar funcions de moderació i filtratge per vetllar pel contingut generat.

Per protegir la vostra privacitat i reduir els riscos associats amb ChatGPT, seguiu aquestes recomanacions:

  • No compartiu informació personal, financera o confidencial quan utilitzeu ChatGPT.
  • Eviteu fer servir el servei per a temes molt sensibles o en situacions on la privacitat és crítica.
  • Assegureu-vos que estigueu seguint les lleis i regulacions de privacitat aplicables.

La privacitat corre més perill a Chat GPT que a les xarxes socials?

És difícil comparar directament els nivells de privacitat entre ChatGPT i les plataformes de xarxes socials com Facebook, WhatsApp, Twitter, TikTok o Instagram, ja que cadascuna d’elles té riscos i preocupacions específiques de privacitat. No obstant això, podem discutir algunes de les diferències clau:

  1. Finalitat i funcionalitat: ChatGPT és una aplicació d’intel·ligència artificial dissenyada per entendre i respondre a consultes basades en text, mentre que les xarxes socials són plataformes per compartir contingut, interactuar amb altres usuaris i construir una presència en línia. Això fa que els riscos de privacitat siguin diferents per naturalesa.
  2. Dades compartides: Les xarxes socials, com Facebook, Twitter, Instagram i TikTok, solen recopilar una gran quantitat de dades dels usuaris, com les seves interaccions, amistats, ubicació, gustos, etc. Aquestes dades poden ser utilitzades per a diversos propòsits, inclosa la publicitat dirigida. En comparació, ChatGPT processa les dades en forma de text que els usuaris introdueixen per generar respostes, però no està dissenyat específicament per recopilar o emmagatzemar dades dels usuaris a llarg termini.
  3. Xifratge de dades: Algunes plataformes de missatgeria, com WhatsApp, utilitzen xifratge de punta a punta, el que significa que els missatges només poden ser llegits pels destinataris i no per la pròpia plataforma. Aquest nivell de privacitat no es pot comparar directament amb ChatGPT, ja que la interacció amb el model implica compartir i processar dades de text amb el sistema.
  4. Polítiques de privacitat: Les polítiques de privacitat varien entre les diferents plataformes, incloent ChatGPT i les xarxes socials. Cal llegir i entendre les polítiques de privacitat de cada plataforma per conèixer les seves pràctiques i les vostres opcions per controlar la informació compartida.
  5. Vulnerabilitats de seguretat: Totes les plataformes en línia, incloent ChatGPT i les xarxes socials, poden ser objecte de vulnerabilitats de seguretat i pirateria informàtica. No obstant això, el risc pot variar en funció de les mesures de seguretat implementades per cada plataforma i com s’utilitzen.

Quina és la política de privacitat de ChatGPT?

Com a model d’IA desenvolupat per OpenAI, ChatGPT segueix les polítiques de privacitat d’OpenAI:

  1. Recopilació i ús de la informació: OpenAI pot recopilar dades dels usuaris, com ara adreces IP, identificadors de dispositius, informació sobre la interacció amb el servei i les sol·licituds d’API. Aquesta informació es pot utilitzar per millorar els serveis d’OpenAI, investigar i desenvolupar tecnologia, protegir la seguretat dels serveis i complir amb les lleis i regulacions aplicables.
  2. Emmagatzematge i retenció de dades: OpenAI emmagatzema les dades dels usuaris en els seus servidors i pren mesures de seguretat per protegir-les. La política de privacitat sol descriure el període de retenció de les dades i les condicions en què es poden eliminar.
  3. Compartir informació amb tercers: OpenAI pot compartir informació amb tercers en determinades situacions, com ara per complir amb les lleis, protegir els drets i la seguretat d’OpenAI, o en el cas de vendes, fusions o adquisicions d’empreses.
  4. Protecció de dades personals: OpenAI treballa per protegir les dades personals dels usuaris mitjançant mesures de seguretat tècniques i organitzatives. També es poden aplicar tècniques de desidentificació i anonimat per reduir els riscos associats a la privacitat dels usuaris.
  5. Drets dels usuaris: La política de privacitat descriu els drets dels usuaris respecte a les seves dades personals, inclosos el dret a accedir, rectificar, eliminar i portar les dades, així com el dret a oposar-se al tractament de les dades.

Podcast also available on PocketCasts, SoundCloud, Spotify, Google Podcasts, Apple Podcasts, and RSS.

Deixa un comentari

Darreres entrades