Un grupo llamado Future of Life Institute ha hecho circular una petición, firmada por casi 3.000 personas de la industria tecnológica y sus alrededores, en la que se pide una moratoria de seis meses para los experimentos a gran escala con inteligencia artificial (IA). La petición ha desencadenado un gran debate.
Quienes han firmado la petición señalan que los desarrolladores de GPT-4 y otras IA de grandes modelos lingüísticos prometen que su tecnología cambiará el curso de la civilización, pero afirman que no han tomado las medidas adecuadas para proteger a la civilización de cualquier daño. Enmarcan el futuro de la IA en términos apocalípticos. Los que se oponen a la petición se dividen en dos grandes grupos: los que se sienten cómodos con el statu quo de los modelos de IA en rápido desarrollo y los que creen que los promotores de la petición están tan centrados en el futuro que ignoran los daños generalizados de las aplicaciones actuales de la IA. Este último argumento es especialmente interesante, ya que el grupo incluye a destacados tecnólogos y estudiosos del campo de la IA, como Timnit Gebru, Emily Bender y Margaret Mitchell.
Realmente necesitamos un enfoque diferente de la IA, cuyo primer paso es reconocer que la IA no es más que la última manifestación de la máquina del bombo publicitario de Silicon Valley. La IA no es más que un código cuyos beneficios están muy por debajo de lo que prometen sus promotores, con muchos más perjuicios. Hemos visto esta película repetidamente (Facebook, TikTok, etc.) en los últimos doce años, siempre con finales infelices. Ya es hora de que hagamos algo con los cambios tecnológicos a gran escala que se están imponiendo rápidamente en la sociedad.
La pregunta que deberíamos hacernos sobre la inteligencia artificial -y sobre cualquier otra nueva tecnología- es si se debe permitir a las empresas privadas realizar experimentos incontrolados con toda la población sin ningún tipo de protección o red de seguridad. ¿Debería ser legal que las corporaciones lancen productos a las masas antes de demostrar que esos productos son seguros?
La industria tecnológica lleva más de una década realizando experimentos incontrolados en una amplia gama de categorías de productos, a menudo con resultados catastróficos. En 2012, por ejemplo, Facebook llevó a cabo un experimento en el que entristeció a 155.000 personas sin su conocimiento ni permiso. Instagram, Snapchat y TikTok se diseñaron en gran medida para crear envidia en los adolescentes, sin tener en cuenta los daños psicológicos. Aplicaciones relativamente limitadas de IA ya han permitido violaciones de derechos civiles en préstamos hipotecarios, revisión de currículos y vigilancia policial.
Con las grandes IA de modelos lingüísticos, la escala de los experimentos ha cambiado, aumentando en dos órdenes de magnitud o más en relación con las primeras IA. Chat GPT, un gran modelo lingüístico que alcanzó los mil millones de usuarios totales -y los 100 millones de usuarios activos- sólo dos meses después de su introducción, ha sido calificado de «generador de gilipolleces». Cuando Microsoft incorporó Chat GPT a su motor de búsqueda Bing, el gran número de errores factuales desencadenó un tsunami de críticas. A pesar de los fallos, la integración de Chat GPT hizo que el número de usuarios diarios de Bing superara por primera vez los 100 millones. Gracias al apoyo tácito y explícito de los medios de comunicación y los responsables políticos, millones de personas se han creído el bombo y han adoptado otro peligroso producto tecnológico.
Incluso Sam Altman, CEO de Open AI, ha expresado su preocupación por el riesgo de la tecnología que está creando. Pero en lugar de tomar medidas para proteger a los consumidores, Altman está desarrollando modelos más grandes tan rápido como puede.
Los que apoyan el enfoque actual de la IA argumentan que no podemos permitirnos ir más despacio porque estamos en una carrera con China. ¿De verdad? ¿Cómo nos ayuda a competir con China inundar el ecosistema de la información con malas respuestas, desinformación y violaciones de los derechos civiles? Históricamente, Estados Unidos tiene más éxito cuando se centra en sus valores fundamentales: la democracia, el derecho de autodeterminación, la creatividad y el espíritu empresarial. Ganamos con los aviones a reacción, las bebidas gaseosas (por ejemplo, Coca-Cola) y el entretenimiento. China gana cuando puede aprovechar su escala y su gobierno autoritario. Las IA basadas en contenidos de alta calidad, operadas de forma coherente con los valores estadounidenses, mejorarían nuestra competitividad, pero ese no es el enfoque que está adoptando Silicon Valley. Quieren competir con China en los términos de China. Eso es una locura.
Los perjuicios de una IA mal desarrollada se llevan debatiendo en los círculos de políticas públicas desde al menos 2017, pero el Congreso y dos presidentes no han hecho nada. Lo sé porque he sido una de las personas que ha dado la voz de alarma.
Los problemas de la IA no se pueden arreglar con una moratoria de seis meses. Lo que hace falta es un enfoque diferente del desarrollo y la implantación de nuevas tecnologías, un enfoque que dé prioridad a la protección de la seguridad de los consumidores, la democracia y otros valores por encima de los beneficios para los accionistas. Si pudiéramos agitar una varita mágica y cambiar la cultura de la tecnología, no habría necesidad de una moratoria. Y una moratoria sin un camino claro hacia mejores prácticas de desarrollo no consigue nada. La industria lleva mucho tiempo considerando la autorregulación como una licencia para hacer lo que le plazca.
La IA es muy prometedora y la tecnología avanza rápidamente, pero sólo puede ser tan buena como el contenido utilizado para entrenarla. Los ingenieros tienen la opción de entrenar las IA con contenidos creados por expertos, pero pocos optan por esa vía, debido al coste. En su lugar, entrenan sus sistemas con datos extraídos gratuitamente de Internet, a veces infringiendo la ley de propiedad intelectual. Los desarrolladores de IA extraen contenidos de sitios de alta calidad como Wikipedia, pero muchos más proceden de sitios que no distinguen entre información y desinformación. Si se entrena a una IA con contenidos de baja calidad, los resultados también serán de baja calidad. Dada la escala de productos como Chat GPT y GPT-4, existe un gran riesgo de inundar Internet de desinformación. Un ingeniero de Google dimitió tras afirmar que su empresa había entrenado a su propio gran modelo lingüístico de IA, Bard, en Chat GPT.
Mientras construyamos IA sobre contenidos malos, los resultados serán malos. La IA acertará algunas veces, pero no podrás saber si la respuesta es correcta o incorrecta sin investigar más, lo que contradice su propósito.
Durante la mayor parte de los últimos cuarenta años, el gobierno y el pueblo han dado a las empresas tecnológicas una libertad casi total con respecto al desarrollo de productos. Los consumidores han adoptado las nuevas tecnologías más o menos a ciegas, a pesar de la escalada de daños de los últimos catorce años. En el vacío normativo actual, los incentivos de la tecnología son maximizar el valor para el accionista, incluso si ello socava valores fundamentales como la seguridad pública y la democracia. Las políticas de laissez-faire han llevado a la creación de una gran riqueza para un puñado relativo de empresarios e inversores, pero a un coste enorme para la sociedad en su conjunto.
Se está cerrando la ventana para proteger a la democracia y al público de productos tecnológicos cada vez más dañinos y de la cultura que los crea. No podemos permitirnos más inacción.