Conéctate con nosotros

Destacado

El ‘padrino de la IA’ lanza advertencia crucial: «La inteligencia artificial podría escapársenos de las manos»

Geoffrey Hinton, pionero de la inteligencia artificial y ganador del Premio Turing (considerado el «Nobel de la computación»), ha emitido un alarmante pronóstico sobre el futuro de esta tecnología. En una reveladora entrevista con CBS, el científico británico comparó el desarrollo actual de la IA con «criar un cachorro de tigre» – aparentemente inofensivo ahora, pero potencialmente mortal al alcanzar su pleno desarrollo.

La paradoja del progreso: oportunidades y riesgos existenciales

Hinton no niega los beneficios transformadores que la IA podría aportar:

  • Revolución en educación con sistemas de aprendizaje personalizado

  • Avances médicos mediante diagnóstico preciso y descubrimiento de fármacos

  • Soluciones innovadoras para la crisis climática

Sin embargo, estima que existe entre un 10% y 20% de probabilidad de que la superinteligencia artificial (ASI) escape al control humano, advirtiendo que «la gente aún no ha comprendido la magnitud de lo que se avecina».

Crítica al modelo actual: ganancias vs. seguridad

El experto arremete contra las grandes tecnológicas:
🔴 «Están presionando para conseguir menos regulaciones cuando deberíamos tener más»
🔴 *»Destinan recursos mínimos a seguridad – deberían usar al menos el 30% de su capacidad computacional en investigación de control seguro»*

Hinton revela una contradicción fundamental: mientras las empresas aceleran el desarrollo de IA general cada vez más potente, invierten proporcionalmente menos en garantizar que estos sistemas permanezcan alineados con los intereses humanos.

Escenarios catastróficos: no es ciencia ficción

El científico enumera peligros concretos que ya vislumbra:

  1. Armas autónomas letales que podrían escalar conflictos beyond human control

  2. Diseño de patógenos sintéticos por IA con capacidades de bioingeniería

  3. Toma de decisiones estratégicas por superinteligencias con objetivos no alineados

«Hay múltiples formas en que la IA podría llevar a la extinción humana», sentencia Hinton, cuya renuncia a Google en 2023 para alertar libremente sobre estos riesgos causó conmoción en la industria.

Llamado a la acción: regulación urgente

La solución, según el experto, requiere:
✅ Marco regulatorio internacional con estándares de seguridad obligatorios
✅ Transparencia radical en el desarrollo de modelos avanzados
✅ Cooperación global similar a los acuerdos sobre armas nucleares

«Estamos jugando con fuego sin entender completamente cómo controlarlo», concluye Hinton, instando a una pausa reflexiva antes de desarrollar sistemas más potentes que la inteligencia humana.

*Estudio Estadio produce sus propios contenidos, ya sea con el aporte de sus redactores o el uso de tecnología avanzada

Más en Destacado