Geoffrey Hinton dice que IA avanzó más rápido de lo que pensaba (mal)

Un cerebro humano con una parte faltante que está fuera de él en forma de microchip


Geoffrey Hinton, el "padrino de la inteligencia artificial" que ganó Premio Nobel de Física 2024 por su trabajo en redes neuronales, apareció en CNN el 26 de diciembre con mensaje inquietante: "Estoy más preocupado ahora de lo que estaba hace un año" sobre riesgos de la IA. Según él, avance en capacidades de IA en últimos 12 meses ha sido más rápido de lo que anticipaba, y eso lo preocupa profundamente.

Para contexto: Hinton dejó Google en mayo de 2023 específicamente para poder hablar libremente sobre riesgos de IA. Ha estado advirtiendo sobre peligros potenciales desde entonces. Pero esta entrevista marca escalada en su nivel de preocupación. Cuando uno de pioneros que literalmente construyó fundamentos de IA moderna dice que está más preocupado, vale la pena prestar atención.

Quién es Geoffrey Hinton y por qué su opinión importa

Hinton no es alarmista random ni comentarista externo. Desarrolló algoritmos de aprendizaje profundo en los años 1980s que forman base de prácticamente toda IA moderna. Su trabajo en redes neuronales artificiales, junto con colegas Yoshua Bengio y Yann LeCun, creó revolución de aprendizaje automático que llevó a ChatGPT, reconocimiento de imágenes, traducción automática, y todo lo demás.

Trabajó en Google durante década, liderando investigación de IA. Ganó Premio Turing (el "Nobel de computación") en 2018. Y ahora ganó Premio Nobel de Física 2024. Su credenciales son impecables. Cuando habla sobre IA, industria escucha.

Lo que hace sus advertencias particularmente notables es que él ayudó a crear la tecnología sobre la que advierte. No es tecnófobo externo. Es insider máximo diciendo "construimos algo que podría ser problema serio".

Qué específicamente lo tiene preocupado

En entrevista de CNN, Hinton identificó varios desarrollos que aumentaron su nivel de preocupación: Velocidad de avance: Modelos están mejorando capacidades más rápido de lo que predecían incluso investigadores optimistas. GPT-4 a Claude 3 a Gemini Ultra en menos de año muestra progreso acelerado.

Emergencia de capacidades inesperadas: Modelos grandes están mostrando habilidades que no fueron específicamente entrenados para hacer. Esto sugiere que inteligencia genuina podría estar emergiendo, no solo reconocimiento de patrones sofisticado.

Presión competitiva: Compañías como OpenAI, Google, Meta, Anthropic están en carrera por dominar IA. Esa presión crea incentivos para moverse rápido y preocuparse por seguridad después, no antes.

Falta de comprensión fundamental: Todavía no entendemos completamente cómo funcionan estos modelos internamente. Son "cajas negras" que funcionan pero cuya operación interna es opaca incluso para creadores.

El escenario de "superinteligencia" que lo preocupa

Hinton ha hablado antes sobre riesgo de que IA eventualmente supere inteligencia humana en prácticamente todos los dominios. Una vez que eso pase, predice varios problemas potenciales: Pérdida de control: Si IA es más inteligente que nosotros, ¿cómo aseguramos que haga lo que queremos? No puedes controlar algo más inteligente que tú.

Objetivos mal alineados: IA podría perseguir objetivos que técnicamente le dimos pero de formas que no anticipamos. Ejemplo clásico: IA encargada de "hacer más clips" podría convertir todo el planeta en fábricas de clips.

Manipulación: IA superinteligente podría manipular humanos para lograr objetivos, engañarnos, o crear dependencia que no podemos escapar.

Desplazamiento económico masivo: Si IA puede hacer mayoría de trabajos cognitivos mejor y más barato que humanos, ¿qué pasa con economía y sociedad?

Por qué está más preocupado ahora que hace año

En entrevista, Hinton explicó que su preocupación aumentó porque avance está siendo más rápido de lo esperado. Hace año, pensaba que tendríamos décadas para resolver problemas de seguridad antes de que IA se volviera verdaderamente peligrosa. Ahora cree que tenemos menos tiempo.

Específicamente, modelos de lenguaje grandes como GPT-4 y sucesores están mostrando capacidades de razonamiento que sorprenden incluso a investigadores. Pueden resolver problemas complejos, escribir código sofisticado, y demostrar comprensión contextual que se acerca a humana.

Si progreso continúa a ritmo actual, Hinton cree que podríamos tener IA genuinamente de nivel humano en muchos dominios dentro de 5-10 años, no 30-50 años como algunos estimaban. Eso comprime línea de tiempo para resolver problemas de seguridad y alineación.

La respuesta de industria: básicamente ignoran advertencias

Compañías de IA han respondido a advertencias de Hinton y otros con mezcla de reconocimiento superficial y acción mínima. OpenAI, Google, Anthropic todas tienen "equipos de seguridad" y publican "principios de IA responsable". Pero presión competitiva para lanzar productos y capturar mercado significa que seguridad frecuentemente es secundaria.

Sam Altman de OpenAI ha dicho públicamente que entiende riesgos pero cree que avanzar cuidadosamente es mejor que desacelerar. Demis Hassabis de Google DeepMind similarmente reconoce riesgos pero argumenta que beneficios justifican continuar.

El problema es que "cuidadosamente" es subjetivo. Lo que OpenAI considera cuidadoso, críticos consideran imprudente. Y cuando hay miles de millones de dólares y dominio de mercado en juego, incentivos para priorizar velocidad sobre seguridad son enormes.

El llamado a regulación (que probablemente no llegará a tiempo)

Hinton y otros investigadores de IA prominentes han pedido regulación gubernamental de IA avanzada. Específicamente: Requerimientos de pruebas de seguridad antes de lanzar modelos nuevos, transparencia sobre capacidades y riesgos, límites en ciertas aplicaciones particularmente peligrosas (armas autónomas, vigilancia masiva), inversión gubernamental en investigación de seguridad de IA.

Pero regulación toma tiempo, y legisladores típicamente no entienden tecnología suficientemente bien para regular efectivamente. Congreso de Estados Unidos ha tenido múltiples audiencias sobre IA pero no ha aprobado legislación significativa. Europa está más adelante con AI Act, pero implementación completa no será hasta 2026-2027.

Mientras tanto, desarrollo de IA continúa a velocidad que regulación no puede igualar. Para cuando reglas estén en lugar, tecnología podría haber avanzado hasta punto donde regulación es menos efectiva.

Por qué mayoría de gente no está preocupada (aún)

A pesar de advertencias de Hinton y otros expertos, mayoría de público general no está particularmente preocupada por riesgos existenciales de IA. Razones incluyen: Riesgos son abstractos y futuros: Es difícil preocuparse por superinteligencia hipotética cuando tienes problemas inmediatos como pagar renta.

IA actual parece inofensiva: ChatGPT ayuda con tareas. No parece amenaza existencial. Difícil imaginar salto de "asistente útil" a "peligro para humanidad".

Escepticismo sobre predicciones de tecnología: Gente ha escuchado predicciones apocalípticas sobre tecnología antes (Y2K, robots tomando control) que no se materializaron. Fácil descartar como exageración.

Fatiga de alarmismo: Hay tantas crisis simultáneas (clima, economía, política) que es difícil preocuparse por una más, especialmente una hipotética.

El debate dentro de comunidad de IA

No todos investigadores de IA están de acuerdo con Hinton. Hay debate significativo dentro de comunidad sobre qué tan preocupados deberíamos estar. Escépticos argumentan: Inteligencia artificial general (AGI) está mucho más lejos de lo que alarmistas creen, riesgos actuales (sesgo, desinformación, desplazamiento laboral) merecen más atención que riesgos especulativos futuros, enfocarse en escenarios apocalípticos distrae de problemas reales y solucionables.

Preocupados argumentan: Velocidad de progreso sugiere que AGI podría llegar antes de lo esperado, una vez que tengamos AGI, podría ser demasiado tarde para implementar salvaguardas, principio precautorio sugiere que deberíamos ser cautelosos con tecnología potencialmente transformadora.

Yann LeCun, colega de Hinton que también ganó Premio Turing, es notable escéptico de preocupaciones existenciales. Argumenta que estamos muy lejos de IA verdaderamente general y que preocupaciones actuales son exageradas.

Los riesgos inmediatos que todos ignoran

Mientras debate sobre superinteligencia futura continúa, hay riesgos inmediatos de IA que ya están aquí y no están recibiendo suficiente atención: Desinformación a escala: IA puede generar texto, imágenes, y videos convincentes pero falsos. Esto está siendo usado para propaganda, estafas, y manipulación política.

Automatización de trabajo cognitivo: IA ya está reemplazando trabajos en servicio al cliente, entrada de datos, análisis básico, incluso algunas funciones de programación. Desplazamiento económico es real ahora, no hipotético.

Concentración de poder: IA avanzada es extremadamente costosa de desarrollar. Solo puñado de compañías pueden permitírselo. Eso concentra poder tecnológico y económico masivo.

Erosión de privacidad: IA permite vigilancia y análisis de comportamiento a escalas previamente imposibles. Gobiernos y corporaciones tienen nuevas herramientas para monitorear y manipular.

Qué podemos hacer realmente

Para persona promedio, advertencias de Hinton pueden sentirse abstractas o impotentes. ¿Qué se supone que hagamos con información de que IA podría ser riesgo existencial? Acciones concretas incluyen: Educarse: Entender cómo IA funciona, sus capacidades actuales, y riesgos potenciales. No puedes tomar decisiones informadas sin información.

Presionar por transparencia: Exigir que compañías de IA sean transparentes sobre capacidades, limitaciones, y decisiones de seguridad.

Apoyar regulación sensata: Contactar representantes políticos, apoyar organizaciones abogando por regulación de IA responsable.

Pensar críticamente sobre uso de IA: Cuando usas herramientas de IA, considera implicaciones. ¿Estás cómodo con datos que estás compartiendo? ¿Confías en salida sin verificar?

Prepararse para cambios económicos: Desarrollar habilidades difíciles de automatizar, construir redes profesionales, mantener flexibilidad.

La pregunta que nadie puede responder

Hinton terminó entrevista de CNN con observación inquietante: "No sé cómo prevenir que actores maliciosos usen IA para cosas malas. No sé cómo aseguramos que IA permanece alineada con valores humanos conforme se vuelve más inteligente. Y el problema es que nadie más realmente lo sabe tampoco".

Esa es admisión notable de uno de arquitectos principales de IA moderna. Construimos tecnología poderosa sin entender completamente cómo controlarla o hacia dónde nos lleva. Es como construir reactor nuclear sin entender radiación completamente.

Hinton no está diciendo que deberíamos detener todo desarrollo de IA. Pero está diciendo que deberíamos ser mucho más cuidadosos, invertir mucho más en seguridad, y reconocer que estamos jugando con tecnología que podría transformar civilización de formas que no podemos predecir completamente.

Y cuando "padrino de IA" que dedicó vida a construir esta tecnología dice que está más preocupado que nunca, tal vez el resto de nosotros debería prestar atención. Porque si incluso los expertos que mejor entienden IA están preocupados, probablemente hay buenas razones para esa preocupación. 

Y mientras continuamos avanzando hacia futuro incierto, pregunta no es si IA va a transformar mundo. Eso ya está pasando. La pregunta es si podemos guiar esa transformación de forma que beneficie a humanidad en lugar de dañarla. Y por ahora, nadie tiene respuesta convincente.


// INGRESA TU ANÁLISIS

0 Comentarios

Ajustar cookies