Los padres de la Inteligencia Artificial tienen opiniones dividas acerca del peligro de los algoritmos

¿Chat GPT es capaz de llevar a la humanidad a la extinción? Ni los mismos genios detrás de la IA generativa pueden ponerse de acuerdo.

Por Álvaro Montes

Tres ganadores del Premio Turing (considerado como una especie de Nobel de la informática), en el año 2018 por sus contribuciones al Aprendizaje Profundos (Deep Learning, la base más importante de la Inteligencia Artificial de nuestros días) están sentados hoy en orillas diferentes en relación con los riesgos de la IA y el pensamiento de máquina. Este trio de científicos notables están considerados como los “padres” de la IA actual, por lo que sus opiniones acerca de qué ocurrirá mañana con las tecnologías emergentes, son tomadas muy en serio.

El asunto es que los tres ofrecen respuestas diferentes cuando se les pregunta por los peligros y las bondades de los algoritmos asombrosos que dominan el interés público por estos días, tras la popularización de ChatGPT y Bard.

Uno de ellos, Geoffrey Hinton, se sumó al bando de los apocalípticos (apoyándonos en las categorías famosas de Umberto Eco por allá en los años setenta). Por apocalípticos, Eco se refería a aquellos intelectuales que profetizan la catástrofe; en nuestro caso, quienes preconizan hoy que la Inteligencia Artificial llevará a la extinción de la humanidad, como se ha dicho recientemente.  Hinton fue noticia hace algunos meses cuando renunció a su alto cargo como vicepresidente de Google y principal arquitecto de los desarrollos de IA en esta empresa, para dedicarse a evangelizar sobre los riesgos de los algoritmos. “En este momento, (los sistemas de IA) no son más inteligentes que nosotros, por lo que puedo decir. Pero creo que pronto lo serán“, afirmó en una entrevista con la BBC. Firmó manifiestos pidiendo que se detenga por algún tiempo la publicación de nuevos desarrollos y dicta conferencias alertando de los peligros. Claramente, es la figura mundial más destacada en las premoniciones pesimistas acerca de nuestro futuro tecnológico.

Otro es Yann LeCun, que vendría a ser un típico integrado (Eco llamaba así a los intelectuales que se ponen al servicio de las fuerzas económicas), y se desempeña actualmente como jefe de IA en Meta, la empresa de Marck Zuckerberg. Por estos días trabaja en el desarrollo de máquinas que puedan tener sentido común, lo que constituiría – si es que lo logra – el mayor salto de IA en la historia. Y en cuanto a los riesgos que vienen con la IA, su receta – que es la receta de Meta – consiste en fundamentar todos los desarrollos en el código abierto, para que nadie sea propietario de estas tecnologías. “¿Queremos un futuro en el que los sistemas de IA sean esencialmente transparentes en su funcionamiento o sean propietarios y propiedad de un pequeño número de empresas tecnológicas en la costa oeste de los EE. UU.?“, dijo en una entrevista con MIT Technology Review. Le Cun considera “absurdamente ridículos” los temores sobre el supuesto apocalipsis algorítmico.

El tercero es Yoshua Bengio, al cual podemos ubicar más o menos en un punto intermedio, muy con los pies en la tierra, porque advierte los riesgos actuales, concretos y creíbles de la IA, relacionados con el crecimiento de la desinformación, las deep fakes y los usos indebidos, pero considera que no es posible saber qué evolución tendrán las tecnologías inteligentes en las próximas décadas. Y claramente rechaza la idea de que la Inteligencia Artificial actual sea igual ni superior a la inteligencia biológica. Al respecto, Bengio es tajante: “No, estamos muy lejos de ello. Puedes conseguir que sea más experta que un humano en un determinado ámbito, como a la hora de pilotar un avión, o en cuestiones relacionadas con la bioquímica, pero eso no significa que tienen el mismo tipo de inteligencia que nosotros. Tu coche es más rápido que tú, pero hay otras cosas que tu coche no sabe hacer”. El sentido común, la sospecha o la intuición, rasgos asombrosos de los organismos vivos están ausentes en las máquinas, aun en las más sofisticadas.  “No tenemos máquinas que den sentido común o que sean capaces de entender el doble sentido de una frase, o las susceptibilidades. Las máquinas no comprenden el mundo como los humanos. No tienen sus capacidades“, respondió en entrevista con La Razón.

El experto francés califica de “ridículas” las predicciones que pululan en los medios y que vaticinan en algunos años – y hasta ponen fechas concretas – que la IA escribirá Best Sellers y realizará películas ganadoras de Oscar. “Me parecen ridículas. No sabemos realmente lo que puede ocurrir dentro de diez años. En una década puede pasar cualquier cosa“, dijo.

La controversia sobre el impacto que tendrá en el mediano y largo plazo la explosión de productos y servicios basados en Inteligencia Artificial continuará.