La de Yuval Noah Harari (Israel, 1976) és una de les moltes veus que denuncien els riscos que té el desenvolupament i la implantació de la intel·ligència artificial en la nostra societat: «a diferència d’altres tecnologies inventades en el passat, que fins i tot han servit per crear armament nuclear i bombes atòmiques, la IA suposa anar un pas més enllà, un perill encara més gran, perquè si bé les bombes necessiten la intervenció humana per activar-les, la IA és una tecnologia autònoma, pot actuar ella sola.»
L’autor de Sàpiens ho explica amb motiu de la publicació del seu nou llibre, Nexus (Edicions 62/Debate), que analitza com les xarxes d’informació han conformat el món i a les persones, a més d’animar a explorar la relació entre informació i veritat. Harari considera que cal diferenciar informació i coneixement, perquè la majoria d’informació que circula a les xarxes són escombraries: «si el món s’inunda d’informació, la realitat cau al fons, i si volem que prevalgui la veritat, cal invertir en institucions acadèmiques i en mitjans dedicats a descobrir i protegir la veritat.»
Harari, a més, alerta contra persones que validen la tecnologia a qualsevol preu, com Elon Musk, i recorda que en plataformes com X -abans, Twitter- o Facebook la figura de l’editor ha estat substituïda per la IA, que és qui decideix, gràcies als algoritmes, a quin contingut dona rellevància. L’historiador destaca també que les companyies tecnològiques guanyen més diners en funció del temps que passa l’usuari connectat: «com més temps passes en una plataforma, més anuncis pot vendre aquesta i més dades recull per després vendre-les a tercers.» En aquest sentit, «les empreses saben que la millor manera de mantenir les persones enganxades a les xarxes és a través de la ràbia i la por, i això s’aconsegueix amb desinformació i notícies falses.»
El missatge de l’escriptor israelià és clar: «la IA té un potencial totalitari que no han tingut tecnologies anteriors.» Ho explica així: «abans una dictadura tenia un límit, que era el de la intimitat, cap règim tenia prou recursos per controlar què passava en l’interior de les cases, però ara la IA pot arribar a tot arreu, en qualsevol moment, i sense gaire despesa.» I posa l’exemple de l’Iran: «el país és ple de càmeres de videovigilància amb reconeixement facial, de forma que si una dona va conduint sense vel, la càmera la reconeix i la IA activa un procediment sancionador, enviant un missatge a la conductora i exigint-li que aturi el cotxe, perquè ha quedat confiscat per l’Estat iranià.»
Totes aquestes amenaces es troben, segons Harari, en una fase molt inicial: «la IA d’avui són amebes que esdevindran dinosaures, si ChatGPT és només una ameba avui, ¿com serà ChatGPT quan sigui un dinosaure?», es pregunta. Ara bé, l’autor reconeix que la IA pot ajudar en molts àmbits, com el mèdic, ja que aquesta tecnologia pot fer un seguiment molt més econòmic i constant dels malalts, fins i tot arribar a zones apartades on no tenen centres hospitalaris a prop.
Harari recorda que «l’essència de la democràcia és la conversa, no les eleccions, perquè que hi hagi eleccions no és garantia de res, mirem què ha passat a Veneçuela, el problema rau en el fet que la gent ja no pot tenir una conversa racional davant les tecnologies de la informació que, en teoria, ens havien d’ajudar, però que han dificultat que puguem parlar els uns amb els altres.» I es pregunta: «com afectarà la IA a la psicologia humana? Ningú ho sap, i aquesta és una gran qüestió.»