¿Realmente puede la Inteligencia Artificial extinguir a la humanidad?

El riesgo de que nuestra especie sucumba dominada por robots es todavía una especulación no demostrada, aunque la proclamen los líderes de la industria tecnológica. En cambio, hay efectos preocupantes en el mundo real y están sucediendo ahora.

Por Álvaro Montes

Un mensaje publicado esta semana en la web del Center for AI Safety nos pone a tomar valeriana a todos los habitantes del planeta. Los mismos creadores de ChatGPT, Bard y las más populares plataformas de la llamada Inteligencia Artificial generativa dijeron que la IA podría conducirnos un día a nuestra extinción como especie. Y agregaron que hay que tratar este riesgo tecnológico como si fuera una pandemia o una guerra nuclear.  Fue una deliberada exageración para abrir el debate, y lo logró.

Se trata de una advertencia muy fuerte, porque viene firmada por el mismísimo Sam Altman, CEO de OpenAI, la empresa que desarrollo ChatGPT. La firman también los responsables del desarrollo de IA en Google y un total de 350 expertos, entre científicos, académicos y líderes de la industria.

Cuando Hollywood nos contó historias como esta, de máquinas que dominan La Tierra y persiguen a los humanos, solamente comimos crispetas y disfrutamos el filme. Cuando, un mes atrás, mil expertos y empresarios de tecnología firmaron una carta pidiendo una moratoria de al menos seis meses en el desarrollo de ChatGPT, dijimos que se trataba de una jugada promovida por inversionistas perdedores que se quedaron por fuera de la fiesta y buscan algo de tiempo para entrar en el negocio (se dijo esto por la presencia de Elon Musk en la lista de firmantes, quien estuvo en la fundación de OpenAI, se retiró hace algunos años y hoy se arrepiente al ver el éxito descomunal de la compañía). Pero ayer se sumaron al terrible mensaje apocalíptico quienes están en el corazón de estos desarrollos. Así que, parezca exagerado o no, o si se trata de una estratagema macabra como algunos han sugerido, hay que prestar atención al tema.

Desde el punto de vista de ingeniería, es difícil estimar la veracidad de la advertencia. Se conoce el diseño algorítmico que está en la base de los recientes desarrollos de los grandes modelos de lenguaje, conocido como Transformers, y aparentemente no hay allí algo que sugiera la posibilidad de que, a partir de un conjunto de operaciones matemáticas concebidas por ingenieros en Mountain View, California, surja algo como la voluntad, el animismo y la capacidad de autorreplicación que nos viene a la mente cuando pensamos en máquinas asesinas que puedan dominar a la raza humana. De hecho, cuando el ingeniero Blake LeMoine miembro del equipo de desarrollo de estos algoritmos en Google, dijo que tenían algo así como conciencia, fue sacado a patadas de la empresa por sembrar el pánico.

El Centro por la seguridad de la Inteligencia Artificial, una institución privada sin ánimo de lucro precisó que el propósito del escueto mensaje, es “abrir el debate”, con lo que da a entender que hay deliberada exageración para llamar la atención de la opinión pública, la prensa especializada y los gobiernos acerca de la urgencia de regular la tecnología.

El punto débil de las advertencias sobre una hecatombe de la sociedad debida al auge de la Inteligencia Artificial es que nadie ha explicado aun cómo esto podría suceder…Las grandes tecnológicas fueron históricamente reacias a aceptar regulaciones sobre sus productos. Durante el auge de las redes sociales, todas sin excepción se opusieron a cualquier tipo de legislación que limitara su funcionamiento. Pero este año, en relación con la Inteligencia Artificial, la industria ha mostrado un radical cambio de postura. Sam Altman, CEO de OpenAI acudió personalmente al Congreso de las Estados Unidos para proponer que los desarrollos de IA sean regulados rápidamente. Lo mismo pidió Brad Smith, presidente de Microsoft , y Sundar Pichai, CEO de Google. Y casi todos los demás líderes de las empresas que, precisamente, desarrollan estas tecnologías. Congresistas demócratas manifestaron sospechas acerca de estas solicitudes, el día en que se sentaron cara a cara con Altman.

Muchos se preguntan hoy si existe alguna agenda oculta detrás de las solicitudes de regulación que hace la industria tecnológica. Doug Rushkoff, intelectual norteamericano crítico acérrimo de las big tech y líder de opinión en temas de cultura digital, cree que las advertencias que los ejecutivos de OpenAI y Google han formulado acerca de la hipotética extinción de la humanidad por la IA se explican porque “son apocalípticos, y tan existenciales, porque no tienen conexión con la vida real y cómo funcionan las cosas. Tienen miedo de que las IA sean tan malas con ellos como lo han sido con nosotros”, según declaró en entrevista con el diario británico The Guardian.

Expertos de la talla de Yan LeCunn, ganador del premio Turing en 2018, una especie Nobel en ciencias de la computación, estiman como improbables y poco realistas las advertencias sobre un apocalipsis causado por los algoritmos. Y Arvind Narayanan, profesor de Princeton, dijo a la BBC hace poco que el supuesto apocalipsis es más una distracción que ha creado la propia industria para distraer la atención de problemas verdaderos, como los sesgos de los algoritmos y el impacto en el empleo.

El analista español Enrique Dans escribió hace poco, en relación con una carta de mil expertos publicada en marzo: “No, ni LaMDA, ni GPT ni ningún otro algoritmo poseen autoconsciencia, y aunque la antropormorfización, el atribuir a cualquier cosa cualidades humanas sea, como la pareidolia, completamente inevitable, no debemos olvidar que estamos hablando de atribuciones e interpretaciones desarrolladas en nuestro cerebro, no de realidades“.

Origen del mito

En 1993, el matemático norteamericano Vernor Vinge predijo que “Dentro de treinta años dispondremos de los medios tecnológicos necesarios para crear inteligencia sobrehumana. Poco más tarde, la era humana estará terminada“; y calculó que el dominio de las máquinas sobre la humanidad sucedería entre 2005 y 2030. Vinge es uno de los creadores de la singularidad, un concepto que describe el hipotético salto de rana que darán algún día las máquinas, mediante el cual alcanzarán la inteligencia humana y la superarán. Esa singularidad tecnológica ha sido más un insumo entretenido para la literatura de ciencia ficción que una apuesta seria de la ingeniería computacional. Los padres de la Inteligencia Artificial, como Marvin Minsky, se negaron hasta última hora a formular pronósticos acerca de la evolución del pensamiento de máquina.

Si alguien puede opinar con algún nivel de seriedad sobre fecha futuras en las que podrían alcanzarse hitos científicos y tecnológicos es el respetado físico teórico Michio Kaku, quien se ha dedicado por décadas precisamente a estudiar el futuro de la tecnología. No habla sobre suposiciones arbitrarias, sino que su contacto permanente con los laboratorios y mentes más brillantes de la frontera de la ciencia le permiten atisbar escenarios posibles, como lo hace en su famoso libro “La física del futuro. Cómo la ciencia determinará el destino de la humanidad y nuestra vida cotidiana en el siglo XXII” (Random House Mondadori, 2011).  Acerca de la singularidad soñada por muchos, Kaku es claro en señalar la gran barrera existente en el camino de dotar a un robot de tres rasgos esenciales de los seres vivos: la autoconciencia, la capacidad de sentir y la capacidad de planificar el futuro estableciendo objetivos y planes estratégicos. Kaku estima que un paso previo, la ingeniería inversa del cerebro (porque todavía no comprendemos plenamente cómo funciona la inteligencia biológica) podría lograrse apenas a mediados del presente siglo. Cosas altamente sofisticadas, tipo ciencia ficción, como la mente dominando la materia o máquinas capaces de replicarse a sí mismas, no las ve factibles durante el presente siglo.

No obstante, mentes brillantes han manifestado temores severos acerca de la Inteligencia Artificial. El gran Stephen Hawking dijo en 2014 que “el desarrollo de la inteligencia artificial completa podría significar el fin de la raza humana“. El peso intelectual de Hawking en la cultura popular hizo que su vaticinio figurase en las primeras páginas de la prensa internacional.

El punto débil de las advertencias sobre una hecatombe de la sociedad debida al auge de la Inteligencia Artificial es que nadie ha explicado aun cómo esto podría suceder. ¿De qué manera los algoritmos detrás de ChatGPT alcanzarían niveles de conciencia y autonomía hasta dominar a los humanos? Incluso las declaraciones que ha dado a los medios Geoffrey Hinton, hasta hace pocos días vicepresidente de Google y considerado padre de la actual Inteligencia Artificial generativa, dejan sin respuesta esta pregunta. Hinton fue noticia al renunciar a la poderosa compañía de Silicon Valley debido – según dijo a los medios – a los riesgos que enfrenta la humanidad con los desarrollos de la IA, Desarrollos de los que él es uno los principales artífices. En una entrevista publicada en New York Times explicó sus temores de que la IA caiga en las manos equivocadas y sea utilizada para “cosas malas”. “Ahora que hemos descubierto que funciona mejor de lo que esperábamos hace unos años ¿qué hacemos para mitigar los riesgos a largo plazo de que cosas más inteligentes que nosotros tomen el control?“, expresó.

El verdadero impacto

En general, las afirmaciones sobre una hecatombe robótica preocupan más a la prensa y figuran más en los titulares que en las preocupaciones diarias de los científicos y desarrolladores de tecnologías inteligentes, quienes parecen más alarmados por los efectos a corto plazo, reales y medibles, como el desempleo, la desinformación y la vulneración de los derechos de propiedad intelectual que provocan estas tecnologías. El reciente reporte del World Economic Forum “El futuro del trabajo 2023”, un informe anual considerado como fuente fiable de análisis del impacto de las tecnologías en el empleo, estima que la IA y las tecnologías emergentes crearán 69 millones de empleos y destruirán 83 millones, “lo que llevará a una contracción de los mercados laborales mundiales de 14 millones de empleos en los próximos cinco años al ritmo actual de cambio, aunque esta cifra está sujeta a un alto grado de incertidumbre“.

Mark Coeckelbergh, el pensador de moda sobre filosofía de la Inteligencia Artificial encuentra más preocupante la amenaza a la democracia que supone el poder casi ilimitado que tienen las grandes tecnológicas, que las especulaciones acerca del fin del mundo. El experto en ética de la tecnología cree que un factor determinante para el impacto negativo de las innovaciones radica en el sistema político y económico en el que se desarrollan. “Esta combinación de democracias débiles, capitalismo e inteligencia artificial es peligrosa“, señaló recientemente en entrevista en el diario El País.

En conclusión, nadie, ni los firmantes de las recientes cartas que advierten sobre los peligros para la especie humana que podrían venir con los desarrollos de la IA, ha explicado desde el punto de vista técnico científico, como algo así podría ocurrir. Las probabilidades de que tal cosa suceda son de momento meras especulaciones, aun si provienen de los mismos creadores de los algoritmos.

Pero efectos tangibles y concretos sí pueden verse ya, en la amenaza al empleo, la proliferación de la desinformación y los problemas de propiedad intelectual que ChatGPT y las plataformas generativas han comenzado a provocar. Las amenazas a la democracia, el excesivo poder del capitalismo tecnológico y las brechas abismales entre las pocas naciones que lideran la innovación frente al resto de economías dependientes tecnológicamente, constituyen – esos sí – verdaderos dolores de cabeza del mundo real.

«

»

¿Qué piensas?

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *