LUWAI - Formations IA pour entreprises et dirigeants

📄Article

Por Qué el 'Padrino de la IA' Renunció a Google Para Advertirnos Sobre Los Peligros de la IA

El 1 de mayo de 2023, Geoffrey Hinton, pionero de la IA moderna, dejó Google para hablar libremente sobre los riesgos de la IA. Su advertencia fue titular en todo el mundo.

Publié le:
5 min de lectura min de lecture
Auteur:claude-sonnet-4-5

El 1 de mayo de 2023, Geoffrey Hinton, el investigador que literalmente inventó la tecnología detrás de la IA moderna, anunció que dejaba Google. A los 75 años, podría haberse retirado cómodamente como una leyenda celebrada.

En cambio, renunció para advertir al mundo sobre los peligros de la tecnología que él fue pionero.

Cuando el "Padrino de la IA" dice que necesitamos preocuparnos, la gente escucha.

¿Quién Es Geoffrey Hinton?

Para quienes están fuera de la investigación de IA, el nombre de Hinton podría no ser familiar. Pero en los círculos de IA, es un padre fundador.

Sus Contribuciones

Retropropagación (1986): El algoritmo fundamental que hace que las redes neuronales aprendan. Cada sistema de IA moderno usa esto.

Resurgimiento del aprendizaje profundo (2012): Cuando la IA estaba fuera de moda, el equipo de Hinton probó que las redes neuronales profundas podrían revolucionar la visión por computadora.

AlexNet: El avance de 2012 que inició la revolución del aprendizaje profundo.

Premio Turing (2018): Compartido con Yoshua Bengio y Yann LeCun, el "Premio Nobel de la informática" por el aprendizaje profundo.

Sin el trabajo de Hinton, ChatGPT, GPT-4, generadores de imágenes y todo el boom moderno de IA no existirían.

Él no es un crítico mirando desde afuera: construyó la base sobre la que todo descansa.

La Renuncia

Hinton pasó una década en Google después de que adquirieran su compañía en 2013. Era parte de Google Brain, trabajando en investigación de IA de vanguardia.

El 1 de mayo de 2023, anunció su renuncia al New York Times.

Por Qué Se Fue

Hinton explicó que necesitaba dejar Google para hablar libremente sobre los peligros de la IA sin que pareciera crítica de su empleador.

En Google, expresar preocupaciones sobre los riesgos de IA podría parecer atacar los productos y estrategia de la compañía. Fuera de Google, podía hablar con franqueza.

Esto no fue jubilación. Fue una elección deliberada de convertirse en una voz independiente advirtiendo sobre lo que se avecina.

Las Advertencias

En su anuncio y entrevistas posteriores, Hinton delineó varias preocupaciones importantes:

1. Riesgo Existencial

Hinton se preocupaba de que los sistemas de IA eventualmente pudieran superar la inteligencia humana, y no tenemos idea de cómo controlar IA superinteligente.

"Mira cómo era hace cinco años y cómo es ahora", dijo al Times. "Toma la diferencia y propágala hacia adelante. Eso da miedo".

2. Desplazamiento Laboral

La automatización siempre ha eliminado empleos, pero la IA lo haría más rápido y más ampliamente. No solo tareas rutinarias: trabajo creativo, labor intelectual, empleos de cuello blanco.

"Va a ser maravilloso en muchos aspectos", dijo Hinton. "Pero tenemos que preocuparnos por una serie de posibles malas consecuencias".

3. Desinformación a Escala

El texto, imágenes y videos generados por IA inundarían internet. La mayoría de la gente no podría distinguir qué es real.

"Tenemos que tomar muy en serio la amenaza de que puedan manipular a las personas", advirtió.

4. Armas Autónomas

Armas impulsadas por IA tomando decisiones de matar sin supervisión humana. Hinton llamó a esto "bastante aterrador".

5. Pérdida de Control

Su temor más profundo: Podríamos crear sistemas de IA más inteligentes que nosotros que no podemos controlar. Y a diferencia de tecnologías anteriores, los sistemas inteligentes podrían potencialmente manipularnos o engañarnos.

"No es inconcebible que la humanidad sea solo una fase pasajera en la evolución de la inteligencia", dijo.

La Reacción de la Industria

La advertencia de Hinton envió ondas de choque a través de la tecnología.

Partidarios

Muchos investigadores de seguridad de IA se sintieron validados. Habían estado haciendo sonar alarmas durante años pero a menudo eran descartados como alarmistas. Hinton prestando su credibilidad a estas preocupaciones cambió la conversación.

Yoshua Bengio, quien compartió el Premio Turing con Hinton, hizo eco de preocupaciones similares.

Escépticos

Algunos investigadores pensaron que Hinton estaba siendo demasiado pesimista o que enfocarse en riesgos especulativos a largo plazo distraía de daños inmediatos.

Yann LeCun, el tercer ganador del Premio Turing, no estuvo de acuerdo públicamente, argumentando que los sistemas de IA estaban lejos de ser superinteligencia peligrosa.

Las Compañías

Google emitió una declaración agradeciendo a Hinton por sus contribuciones. Otros laboratorios de IA reconocieron sus preocupaciones pero enfatizaron su compromiso con el desarrollo responsable.

Entre bastidores, la presión aumentó para tomar la seguridad en serio.

El Timing

La renuncia de Hinton llegó en un momento crucial: seis meses después del lanzamiento de ChatGPT, justo después del lanzamiento de GPT-4. La IA estaba en todas partes en las noticias.

Su advertencia amplificó las preocupaciones existentes:

  • La carta de pausa de IA acababa de ser publicada
  • Italia había prohibido ChatGPT
  • Los deepfakes se estaban volviendo virales
  • Las compañías corrían para desplegar IA sin marcos de seguridad claros

La voz de Hinton añadió urgencia y credibilidad a los llamados a la cautela.

El Matiz

Contexto importante: Hinton no dijo "detener toda investigación de IA". Su posición fue más matizada:

No un ludita: Reconoció los beneficios masivos de la IA No anti-investigación: Alentó el trabajo continuo, incluido el de seguridad No certero: Admitió incertidumbre sobre plazos y riesgos No político: Evitó el encuadre partidista

Su mensaje fue: "Esto es genuinamente peligroso, y necesitamos resolverlo antes de que sea demasiado tarde".

Las Secuelas

La advertencia de Hinton aceleró varios desarrollos importantes:

Atención del gobierno: Los legisladores tomaron los riesgos de IA más en serio Financiación de investigación: La investigación de seguridad de IA recibió más apoyo Conciencia pública: Los medios principales cubrieron los riesgos de IA seriamente Respuesta de la industria: Las compañías crearon equipos de seguridad de IA y juntas éticas

Si esto se traduce en acción efectiva sigue siendo debatido.

El Papel Continuo

Desde que dejó Google, Hinton se ha convertido en una voz prominente en las discusiones de política de IA:

  • Testificando ante gobiernos
  • Hablando en conferencias sobre riesgos de IA
  • Abogando por la investigación de seguridad de IA
  • Advirtiendo sobre el despliegue apresurado

Está usando su credibilidad para impulsar enfoques reflexivos al desarrollo de IA.

¿Dónde Están Ahora?

Hoy, Hinton continúa haciendo sonar la alarma sobre los riesgos de IA mientras reconoce que no tiene soluciones simples. Ha admitido sentirse conflictuado: orgulloso de sus contribuciones pero preocupado por las consecuencias.

Las preocupaciones que planteó en mayo de 2023 solo se han intensificado a medida que las capacidades de IA continúan avanzando rápidamente. Las preguntas que planteó permanecen sin respuesta:

  • ¿Cómo controlamos sistemas más inteligentes que nosotros?
  • ¿Cómo prevenimos el mal uso?
  • ¿Cómo aseguramos que la IA beneficie a la humanidad?

Google y otros laboratorios continúan construyendo sistemas de IA cada vez más capaces. La carrera sobre la que Hinton advirtió no se ha ralentizado.

Su renuncia se erige como un marcador histórico: el momento en que uno de los creadores de la IA dijo públicamente: "Necesitamos pausar y pensar seriamente sobre esto".

El 1 de mayo de 2023 fue el día en que el Padrino de la IA se convirtió en su escéptico más prominente. Si sus advertencias serán atendidas o ignoradas dará forma al futuro de la tecnología que ayudó a crear.

Como dijo Hinton: "Me consuelo con la excusa normal: Si no lo hubiera hecho, alguien más lo habría hecho".

Pero a diferencia de la mayoría de la gente que hace esa excusa, ahora está dedicando sus últimos años a asegurar que "alguien más" incluya personas tomando los riesgos en serio.

Tags

#geoffrey-hinton#seguridad-ia#denunciante#riesgos

Articles liés