Geoffrey Hinton dijo estar convencido de que a medida que las empresas mejoran su IA, los sistemas se vuelven cada vez más peligrosos.
Por más de una década, Geoffrey Hinton trabajó para Google. Se le considera pionero y padrino de la inteligencia artificial y una de las mentes maestra detrás del desarrollo de diversos bots conversacionales de los cuales ChatGPT es el más importante o popular hasta la fecha.
Sin embargo, Hinton es parte de las voces que se han unido para advertir acerca de los riesgos que estas herramientas pueden representar para la humanidad, en caso de no hacer una gestión adecuada de ellas.
Hinton renunció a su puesto en Google para poder hablar con libertad sobre los riesgos que entraña la IA:
“Hay una parte de mí que lamenta el trabajo de toda mi vida”, reconoce Hinton. “Me consuelo a mí mismo con la excusa habitual: de no haber sido yo, lo habría hecho otro”.
Muchas empresas informáticas están haciendo de los bots como ChatGPT parte de su estrategia de búsqueda en internet para un futuro cercano. Sin embargo, esta IA está demostrando que aún está lejos de ser una herramienta confiable de información. A ello hay que sumar la creciente preocupación de que la IA provoque la pérdida de muchos empleos en un mediano plazo.
Una preocupación creciente
Hace muy poco, líderes de empresas tecnológicas de todo el mundo firmaron una carta en la cual se exponían los riesgos del desarrollo de IA descontrolada. Para mitigar los efectos, proponían que se frenara durante seis meses el desarrollo de estos bots.
Varios días después, personas allegadas a la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica internacional de 40 años de existencia, difundió su propia carta abierta con advertencias sobre los peligros de la IA.
Hinton no firmó ninguna de esas cartas. No quería criticar públicamente a Google y demás empresas antes de renunciar a su trabajo. Su vida entera ha estado dedicada al desarrollo de la IA. Ya desde 1972, cuando era estudiante de posgrado en la Universidad de Edimburgo, Hinton adoptó el concepto de “red neuronal”, un sistema matemático que aprende habilidades mediante el análisis de datos.
Después de renunciar a su empleo en Google, Hinton compartió sus temores sobre una tecnología que funciona mejor que el cerebro humano y que no ofrece garantías de cómo mantenerse bajo control.
Advertencias de Geoffrey Hinton
“No creo que deban ampliar esto más hasta que hayan entendido si pueden controlarlo”, dijo Hinton, quien ganó en 2018 el Premio Turing, conocido como el Nobel de computación, junto con dos de sus alumnos.
El llamado “Padrino de la Inteligencia Artificial” dijo estar convencido de que a medida que las empresas mejoran su IA, los sistemas se vuelven cada vez más peligrosos.
“Mira cómo era hace cinco años y cómo es ahora”, aseguró. “Toma la diferencia y proyéctala hacia adelante. Es atemorizante”.
El informático manifestó su profunda preocupación de que internet se llene con fotos, videos y textos falsos, a tal grado que el usuario promedio “ya no podrá saber qué es verdad”.
Después de que se publicara la entrevista, Hinton aclaró en su cuenta de Twitter que no renunció a Google para poder criticar a la empresa.
“En realidad, me fui para poder hablar sobre los peligros de la IA sin considerar cómo afecta esto a Google”.
MUY INTERESANTE.