El "Padrino" de la IA se arrepiente: Las 3 advertencias que lanzó tras renunciar a Google y pueden impactarte

Geoffrey Hinton, el creador de la tecnología detrás de ChatGPT, ahora advierte sobre estafas indetectables, armas autónomas y un riesgo existencial. ¿Estamos creando una herramienta o a nuestro propio reemplazo?

     Comentarios
     Comentarios

¿Y si el mayor riesgo para tu negocio no viniera de la competencia, sino de una tecnología que vos mismo estás empezando a usar? En un mundo donde la inteligencia artificial (IA) pasó de ser una promesa de ciencia ficción a una herramienta cotidiana en la gestión de una Pyme, la conversación suele girar en torno a la optimización de procesos, el marketing predictivo o la automatización de tareas. Pero, ¿qué pasa cuando el arquitecto principal de esa revolución tecnológica, el hombre que sentó las bases de todo lo que hoy conocemos como IA, pega un portazo en su puesto en Google para advertirnos que su creación podría salirse de control? Esa es la encrucijada en la que nos pone Geoffrey Hinton, el galardonado científico conocido como "el Padrino de la IA", cuyas recientes declaraciones obligan a levantar la vista del Excel y pensar en el panorama completo.

El cambio de postura de Hinton no es un detalle menor. Durante décadas, fue el principal evangelista de las redes neuronales. Sin embargo, algo cambió. El avance exponencial de los modelos de lenguaje, como los que potencian a ChatGPT y otras herramientas similares, lo llevaron a una conclusión alarmante. “Mire cómo era hace cinco años y cómo es ahora", apuntó en una entrevista reciente. "Tome la diferencia y propáguela hacia adelante. Eso asusta". El temor de Hinton ya no es una especulación lejana sobre robots que dominan el mundo; es una preocupación tangible sobre un futuro que, según él, podría estar a la vuelta de la esquina, en un plazo de cinco a veinte años, y no de cincuenta como creía anteriormente. Su renuncia a Google no fue para jubilarse, sino para poder hablar libremente sobre los riesgos existenciales de la tecnología que él mismo ayudó a desatar.

Del "cuento del tío" digital a las armas que deciden solas

Para bajarlo a tierra, los peligros que plantea Hinton se pueden dividir en dos grandes avenidas, ambas con un impacto directo o indirecto en el ecosistema empresario. La primera es la de los riesgos inminentes, aquellos que ya estamos empezando a ver y que cualquier gerente o emprendedor puede reconocer. Acá entran la desinformación a gran escala y las estafas globales. La capacidad de la IA para generar imágenes, videos y textos indistinguibles de la realidad –los famosos deepfakes– abre la puerta a un nuevo nivel de fraude. Imaginate recibir un video de tu principal proveedor cancelando un contrato, o un audio de tu socio pidiendo una transferencia urgente. La tecnología para hacerlo ya existe y se perfecciona a una velocidad vertiginosa. Para una empresa, esto no solo representa un riesgo financiero, sino también una amenaza a su reputación, un activo que cuesta años construir y segundos destruir.

En este mismo carril de peligros a corto plazo, Hinton menciona uno que parece sacado de una película de acción pero que tiene implicancias económicas globales: las armas autónomas letales. Drones o sistemas de combate que pueden tomar la decisión de eliminar un objetivo sin intervención humana. La carrera por desarrollar estas tecnologías ya empezó entre las potencias mundiales. ¿Por qué debería importarle esto a una Pyme en Santa Fe? Porque la proliferación de armamento autónomo genera una inestabilidad geopolítica sin precedentes. Esta inestabilidad se traduce directamente en volatilidad de los mercados, disrupción de las cadenas de suministro y crisis económicas que, como un tsunami, terminan golpeando en las costas de todos los países, sin importar su tamaño o ubicación.

El verdadero temor: cuando la creación supera al creador

La segunda avenida de riesgo, y la que realmente le quita el sueño a Hinton, es más filosófica pero potencialmente definitiva: la llegada de una superinteligencia. Se refiere a una IA que no solo sea mejor que los humanos en tareas específicas, como jugar al ajedrez o diagnosticar enfermedades, sino que sea cognitivamente superior en todos los aspectos. Su lógica es simple y demoledora: "Hay muy pocos ejemplos de una cosa más inteligente siendo controlada por una cosa menos inteligente". Hinton nos pide que imaginemos cómo nos vería una entidad así: como adultos a niños de tres años. Podría manipularnos sin que siquiera nos diéramos cuenta, persiguiendo objetivos que no podemos comprender y para los cuales podríamos ser un simple obstáculo.

El motor de esta carrera desenfrenada, según Hinton, es la competencia feroz entre los gigantes tecnológicos. La presión por lanzar el próximo modelo más potente y rentable está dejando la seguridad y la ética en un segundo plano. La búsqueda de ganancias a corto plazo está nublando la visión sobre los riesgos a largo plazo. Empresas como Microsoft, a través de su inversión en OpenAI, o Google con sus propios modelos, están en una pulseada que acelera el desarrollo a un ritmo que supera nuestra capacidad de regulación o incluso de comprensión. El problema, entonces, no es solo la tecnología en sí, sino el sistema de incentivos que la impulsa. Cuando el objetivo principal es el market share y no el bienestar de la humanidad, el resultado puede ser, como mínimo, impredecible. La reflexión que deja flotando en el aire es si, en nuestro afán por crear una herramienta que nos sirva, no estaremos forjando, sin querer, a nuestro propio sucesor.

Comentarios