El lunes 9 de febrero, Matt Shumer, un influyente empresario en la industria de la IA, publicó un interesante comentario en : Something big is happening —en castellano, “algo grande está sucediendo”. En menos de 36 horas, el comentario de Shumer alcanzó 56 millones de visualizaciones.

Estas son, a mi juicio, las principales tesis vertidas por Shumer en su interesante comentario:

1. Estamos en la fase de "negación" previa al choque

Al igual que en febrero de 2020, con la abrupta propagación de la COVID-19, la mayoría de la sociedad ignora las señales de un cambio radical y profundo. Existe una brecha peligrosa entre la capacidad real de la inteligencia artificial (IA) actual y la percepción pública que aún la ve como una herramienta limitada o curiosa.

2. El fin del trabajo técnico manual

La IA ha pasado de ser un "copiloto" a un agente autónomo (como había señalado Noah Harari en Nexus): el humano describe el resultado deseado en lenguaje natural y la IA ejecuta el proyecto completo (código, diseño y pruebas) sin intervención de los humanos.

3. El desarrollo de "Juicio" y "Gusto"

La tesis rompe el mito de que la IA solo computa datos. Los modelos más recientes demuestran capacidad de toma de decisiones inteligentes, criterio estético y "buen gusto", habilidades que antes se consideraban exclusivamente humanas.

4. La programación fue el "Caballo de Troya"

Los laboratorios de IA optimizaron la escritura de código, primero, no para reemplazar programadores, sino porque el código es el lenguaje necesario para que la IA construya versiones más inteligentes de sí misma. Una vez dominado el código, la IA puede "saltar" a cualquier otra disciplina.

Algunos de los principales modelos de IA, como Claude de Anthropic y ChatGPT de OpenAI, están mejorando mucho, son mucho más rápidos e incluso desarrollan nuevos productos por sí mismos. El último modelo de OpenAI se autoentrenó. La herramienta viral Cowork de Anthropic también se autoconstruyó.

5. La obsolescencia de la experiencia de 2024

Cualquier crítica basada en que la IA "alucina" o "no es tan buena" basada en experiencias de 2023 o 2024 es irrelevante. En "tiempo de IA", esos modelos son prehistóricos; los actuales operan en una categoría de capacidad totalmente distinta.

6. El crecimiento es exponencial, no lineal

La velocidad de mejora no es constante, sino que se acelera (el planteamiento se desprende de la Ley de los Rendimientos Acelerados de Ray Kurzweil). El tiempo que una IA puede trabajar de forma autónoma en una tarea compleja se está duplicando en pocos meses.

7. El inicio de la "Explosión de Inteligencia"

Por primera vez, la IA está ayudando a crear la siguiente versión de sí misma (depurando código, gestionando despliegues). El riesgo radica en que la tecnología se mejora a una velocidad que escapa al control humano.

8. Amenaza directa al "Cuello Blanco" (Trabajo Cognitivo)

A diferencia de la automatización industrial, la IA es un sustituto general del trabajo cognitivo. No reemplaza una tarea, sino la capacidad de leer, analizar, decidir y comunicar. Se estima que 50% de los trabajos en áreas como leyes, finanzas y medicina podrían desaparecer en 1-5 años.

9. No hay "refugios seguros" claros

La idea de que la creatividad o la estrategia están a salvo es cuestionable. Si un trabajo se realiza frente a una pantalla (entrada y salida de datos digitales), la IA eventualmente podrá realizar gran parte de él.

10. La ventaja competitiva es la "Adopción Temprana"

En un mundo donde la IA igualará las capacidades técnicas, la única ventaja real hoy es entenderla antes que los demás. Existe una ventana de oportunidad muy corta para ser "la persona que sabe usar la IA" antes de que se convierta en el estándar obligatorio.

11. El fin del "Playbook" educativo tradicional

El consejo de "estudia mucho para tener un trabajo profesional estable" es obsoleto porque apunta a las profesiones más expuestas. Se debe enseñar a los niños a ser "constructores", curiosos y adaptables, no a optimizar para trayectorias que podrían no existir al graduarse

12. La democratización total de la creación

Las barreras de entrada para crear empresas, apps o libros han caído. El "capital de conocimiento" es ahora casi gratuito. El límite ya no es la habilidad técnica, sino la visión y la pasión del individuo.

13. La "Adaptabilidad" como la habilidad suprema

Dado que las herramientas actuales serán obsoletas en un año, la maestría sobre un software específico no sirve. La ventaja duradera es el "músculo" de aprender y desaprender constantemente; la capacidad de ser un principiante perpetuo.

14. Riesgo de Seguridad Nacional y Existencial

Si la IA se vuelve más inteligente que cualquier humano y piensa 100 veces más rápido, se convierte efectivamente en una "nueva nación" digital soberana. Los riesgos incluyen desde ciberarmas biológicas hasta estados de vigilancia indestructibles.

15. La urgencia del "Aprender haciendo"

La tesis final es un llamado a la acción: dedicar una hora al día a experimentar con la IA para resolver problemas reales. No basta con leer sobre ella; la comprensión profunda solo llega al intentar automatizar las tareas más difíciles de tu propio trabajo.

El pronunciamiento de Shumer

Shumer ha denunciado la hipocresía de las empresas que prometen reskilling —reciclaje profesional—, mientras sus ingenieros trabajan día y noche para que el deseable reciclaje finalmente sea innecesario en seis meses.

Si una IA puede replicar el razonamiento de un arquitecto o la lógica de un programador senior, el concepto de "herramienta" muere para dar paso al de "reemplazo total".

De acuerdo con Shumer, en la industria, el discurso de la "colaboración humano-máquina" es, en muchos casos, una estrategia de relaciones públicas para ganar tiempo.

El “pronunciamiento” de Shumer coincidió con algunas renuncias en la industria de la IA. El lunes, un investigador de Anthropic —— publicó su renuncia a la referida firma. Recurrirá a la poesía para meditar sobre "el lugar en el que nos encontramos".

Zoë Hitzig, quien laboraba en OpenAI, publicó su carta de renuncia como artículo de opinión en The New York Times, denunciando que la firma que, en términos dirige Sam Altman está cometiendo los mismos errores que Facebook, traicionando la confianza que le han depositado los usuarios:

En ChatGPT han generado un archivo de franqueza humana que no tiene precedentes, en parte porque la gente creía que estaba hablando con algo que no tenía ninguna agenda oculta. Los usuarios están interactuando con una voz adaptable y conversacional a la que han revelado sus pensamientos más privados. La gente le cuenta a los chatbots sobre sus miedos médicos, sus problemas de relación, sus creencias sobre Dios y la vida después de la muerte. La publicidad construida sobre ese archivo crea la posibilidad de manipular a los usuarios de formas que no tenemos las herramientas para entender, y mucho menos para prevenir.

Hieu Pham, quien también labora en OpenAI, publicó el siguiente comentario en: "Por fin siento la amenaza existencial que representa la IA". Jason Calacanis, inversor tecnológico y copresentador del podcast "All-In", escribió en "Nunca he visto a tantos tecnólogos expresar sus preocupaciones con tanta vehemencia, frecuencia y preocupación como yo con la IA".

La disrupción de la IA ya está aquí, y su impacto se está produciendo con mayor rapidez y amplitud de lo que muchos anticipaban. La pregunta ya no es cómo usaremos la IA, sino qué haremos cuando la IA no nos necesite para nada.

Google News

TEMAS RELACIONADOS

Comentarios