Geoffrey Hinton fue hasta hace pocos días científico de Google. Renunció para poder dedicarse de lleno a poner de relieve los riesgos de la inteligencia artificial
Por: Victoria Bisset
El informático de Google Geoffrey Hinton, que ha realizado importantes contribuciones al desarrollo de la inteligencia artificial, ha abandonado el gigante tecnológico para advertir al mundo del “riesgo existencial” que suponen los sistemas de IA para los humanos.
El científico británico-canadiense, de 75 años, escribió en Twitter que renunciaba “para poder hablar de los peligros de la IA sin tener en cuenta cómo afecta esto a Google”.
En una entrevista con la BBC, dijo que no cree que los sistemas de IA sean todavía tan inteligentes como los humanos. “Pero creo que pronto podrían serlo”, afirmó. Hinton citó ese riesgo para explicar su dimisión de Google el lunes tras 10 años en el gigante tecnológico. Dijo que quiere ser capaz de hablar libremente sobre los riesgos que plantea la IA – pero hizo hincapié en su creencia de que la empresa “ha actuado de manera muy responsable.”
“He llegado a la conclusión de que el tipo de inteligencia que estamos desarrollando es muy diferente de la inteligencia que tenemos”, dijo a la cadena británica.
“La gran diferencia es que con los sistemas digitales tienes muchas copias del mismo conjunto de pesos, del mismo modelo del mundo”, dijo Hinton. “Todas estas copias pueden aprender por separado, pero comparten sus conocimientos al instante. Es como si hubiera 10.000 personas y cada vez que una aprende algo, todos lo saben automáticamente. Y así es como estos chatbots pueden saber mucho más que una sola persona”.
En particular, advirtió de la posibilidad de que la tecnología de IA sea manipulada por agentes malintencionados -como líderes autoritarios- para utilizarla con fines perjudiciales. Si un sistema alcanzara la capacidad de crear sus propios “subobjetivos”, por ejemplo, podría decidir por sí mismo empezar a buscar el poder. Este resultado sería “un escenario de pesadilla”, afirmó.
También dijo que los avances de la IA en el texto podrían dar lugar a “spambots muy eficaces”, que podrían permitir a “líderes autoritarios manipular a sus electorados.”
Después de que el informático se uniera a Google en 2013, diseñó algoritmos de aprendizaje automático y finalmente fue ascendido a vicepresidente. Según su perfil de Google, Hinton contribuyó a “grandes avances en aprendizaje profundo que han revolucionado el reconocimiento de voz y la clasificación de objetos.”
En otra entrevista, Hinton declaró al diario The New York Times que la posibilidad de que la IA supere a la inteligencia humana se estaba haciendo realidad más rápido de lo que él había previsto. “Pensaba que faltaban entre 30 y 50 años, o incluso más. Obviamente, ya no lo creo”, afirmó. Hizo un llamamiento a los principales científicos para que colaboren en el control de la tecnología con el fin de mitigar los posibles riesgos. Sin embargo, también reconoció que, a diferencia de lo que ocurre con las armas nucleares, no existen normas internacionales que impidan o penalicen el uso secreto de la IA por parte de gobiernos o empresas.
Otra preocupación inmediata es el riesgo de que imágenes, vídeos y textos falsos hagan que la mayoría de la gente “ya no sepa lo que es verdad”. Un ejemplo surgió en marzo, cuando una imagen del Papa Francisco con un abrigo blanco se hizo viral, pero resultó ser falsa. “Me consuelo con la excusa normal: si yo no lo hubiera hecho, otro lo habría hecho”, dijo al Times, refiriéndose a su papel clave en el desarrollo de la tecnología de IA.
“Seguimos comprometidos con un enfoque responsable de la IA”, dijo el jefe científico de Google, Jeff Dean, en un comunicado, publicado en varios medios de comunicación, en respuesta a la dimisión y los comentarios de Hinton. “Estamos aprendiendo continuamente para comprender los riesgos emergentes al tiempo que innovamos con audacia”.
Google no respondió inmediatamente a una solicitud de The Washington Post para hacer comentarios.
A principios de este año, The Post informó de que el lanzamiento de ChatGPT de OpenAI estaba forzando a gigantes tecnológicos como Meta y Google a moverse más rápidamente para lanzar sus propios productos de IA. Desde entonces, otros se han pronunciado sobre los riesgos potenciales de esta tecnología.
En marzo, unos 1.000 líderes empresariales, académicos y trabajadores del sector tecnológico firmaron una carta abierta en la que pedían a empresas como OpenAI, Google y Microsoft que “pausaran” el trabajo en sistemas de IA hasta que se pudieran determinar sus riesgos. Sin embargo, ningún alto ejecutivo de OpenAI ni de empresas como Google se sumó a la carta.
Hinton, profesor emérito distinguido de la Universidad de Toronto, recibió su doctorado en Inteligencia Artificial de la Universidad de Edimburgo en 1978 y comenzó a trabajar a tiempo parcial para Google en 2013. En 2018, Hinton fue uno de los tres informáticos galardonados con el prestigioso Premio Turing -a menudo llamado el Nobel de la tecnología- por su trabajo en inteligencia artificial.
(C) The Washington Pos.-