Geoffrey Hinton, creador de la tecnología detrás de ChatGPT, abandonó la gigante tecnológica para alertar sobre los peligros de la inteligencia artificial. El científico considera que la humanidad podría haber perdido el control y advierte: “Nunca enfrentamos algo más inteligente que nosotros”
Un 20 % de probabilidad de extinción humana. Esa es la estimación que Geoffrey Hinton, el reconocido “padrino de la inteligencia artificial”, lanza sobre el futuro de la humanidad ante el avance imparable de la IA.
Ganador del Premio Turing y figura central en el desarrollo de las redes neuronales, ha pasado de ser uno de los arquitectos de la revolución tecnológica a convertirse en uno de sus críticos más severos. En una entrevista reciente en el pódcast de Steven Bartlett “The Diary Of A CEO”, el “padrino de la IA” advierte que la humanidad podría haber perdido el control sobre la inteligencia artificial y urge a gobiernos y sociedad a actuar con rapidez para evitar consecuencias catastróficas.
La voz de alarma del ex investigador de Google no es una simple especulación: se basa en décadas de experiencia y en una visión privilegiada de los riesgos que se avecinan.
Geoffrey Hinton es una de las figuras más influyentes en la historia de la inteligencia artificial. Su trabajo pionero en redes neuronales y aprendizaje profundo sentó las bases de los sistemas que hoy impulsan, desde asistentes virtuales hasta diagnósticos médicos automatizados. Hinton recibió el Premio Turing en 2018, considerado el Nobel de la computación, y su trayectoria abarca más de medio siglo de investigación.
Durante diez años, trabajó en Google tras la adquisición de la tecnología desarrollada por su equipo, donde contribuyó a avances clave en el campo. Fue uno de los pocos que defendió la idea de modelar la inteligencia artificial a partir del cerebro humano, una visión que en sus inicios fue minoritaria. “Puse en práctica ese enfoque durante 50 años”, explicó, y gracias a ello atrajo a estudiantes brillantes, algunos de los cuales, como Ilya Sutskever, desempeñaron papeles fundamentales en la creación de plataformas como OpenAI.
En 2023, Hinton decidió abandonar Google. El motivo principal, según explicó al medio, fue la necesidad de poder hablar con libertad sobre los peligros de la inteligencia artificial. “Quería advertir sobre lo peligrosa que puede ser la IA”, afirmó. Aunque Google le ofreció continuar trabajando en seguridad de la IA, Hinton consideró que, al formar parte de una gran empresa, se sentía limitado para expresar opiniones que pudieran perjudicar a la compañía. “Uno se autocensura”, reconoció.
La salida del investigador marcó un punto de inflexión en su carrera: de arquitecto de la IA pasó a ser uno de sus críticos más visibles. “Mi principal misión ahora es advertir sobre lo peligrosa que puede ser la IA”, declaró en la entrevista.
