Los límites de los robots

Andrew Smart es una de las voces más provocadoras y originales en el debate sobre las intersecciones de la tecnología, la filosofía y la cognición. Autor de los libros «Autopilot: El arte y la ciencia de no hacer nada» (2013) y «Más allá del cero y el uno: Máquinas, psicodélicos y conciencia» (2015), Smart considera la Inteligencia Artificial (IA) como siempre ha considerado las ilusiones de la mente humana: con gran rigor.
Doctor en Filosofía y máster en Ciencias Cognitivas, combina su experiencia en grandes corporaciones como Novartis y Twitter con la investigación sobre la consciencia y la tecnología. Actualmente es investigador sénior en Google en San Francisco, donde estudia el impacto social de la IA.
En esta entrevista, realizada mediante videollamada, Smart analiza la diferencia entre la percepción humana y la alucinación algorítmica, las paradojas de la creatividad artificial, la ideología de Silicon Valley y los dilemas del llamado capitalismo cognitivo, una fase en la que el conocimiento, la creatividad y los datos se convierten en los principales impulsores de la producción y el control social.
El científico y filósofo Andrew Smart, investigador de Google, cree que la IA se utilizará para enriquecer a los que ya son ricos – Imagen: Redes sociales
CartaCapital: Para empezar, ¿podría explicar su trabajo? Andrew Smart: Trabajo generalmente con lo que llamamos "IA responsable", aunque, con el clima político actual en Estados Unidos, se están evitando términos como "equidad" o "diversidad". Me dedico a investigar los impactos sociales de la IA y cómo las tecnologías de aprendizaje automático afectan a diferentes personas y grupos. También sigo interesado en cuestiones filosóficas, como la teoría de la mente y el debate sobre si estos sistemas podrían algún día desarrollar la capacidad de experimentar subjetivamente. Cuando publiqué Beyond Zero and One, la idea de la IA con LSD era casi una provocación filosófica. Ahora, estas ideas parecen menos absurdas.
CC: Argumentaste que las máquinas no podían alucinar como los humanos. ¿Sigues creyéndolo? AS: Hablar de "alucinación" de modelos es antropomorfizar la máquina, es decir, atribuirle características humanas, algo que critico. Al mismo tiempo, nuestra propia percepción es, en cierto modo, una alucinación, la búsqueda de nuestro cerebro por alinearse con la realidad. Todo lo que producen las IA es una forma de alucinación estadística: generan secuencias de palabras basadas en la probabilidad de los tokens. No es conocimiento, sino modelado probabilístico.
CC: ¿Pero también considera a los humanos como productores simbólicos estadísticos, ya que estamos moldeados por el lenguaje? AS: Existe una tendencia en la investigación de IA a tratar el cerebro como un sistema que podría replicarse en otro medio, como chips de silicio. Pero no estoy de acuerdo. Creo que la biología importa. Reemplazar neuronas por microchips no es neutral. La experiencia humana, nuestra relación con el mundo, es corpórea. Los modelos estadísticos son solo eso: modelos. No son la realidad y no existen sin nosotros.
La experiencia humana ocurre a través de nuestros cuerpos. Los modelos estadísticos son solo eso: modelos. No son la realidad.
CC: Ese es un gran debate en la comunidad científica, ¿verdad? AS: Sí. Algunos creen que la IA puede replicar todo lo que hace un humano. Otros, como yo, creemos que hay límites a lo que la estadística y el aprendizaje automático pueden lograr en términos de la experiencia humana.
CC: En términos de arte, ¿crees que la IA puede crear algo adelantado a nuestro tiempo? AS: No. El arte comunica experiencias humanas vividas corporalmente. El arte implica cultura, sociedad y simbolismo, elementos que no se pueden reproducir únicamente con modelos estadísticos. CC: ¿Crees que la IA puede desarrollar afecto, obsesión o cariño por alguien? AS: Algunos argumentan que si una IA parece sentir, es suficiente. Pero yo creo que sin cuerpo y experiencia, no hay experiencia real. La IA puede simular afecto, pero no sentir. Hay empresas que contratan "especialistas en bienestar de IA", como si los modelos pudieran sufrir; eso es ridículo. La gente está tan fascinada que olvida que los modelos son solo software, que no tienen consciencia y no sufren.
CC: Recientemente, un representante de Meta en Brasil argumentó algo casi foucaultiano: que, desde el nacimiento, estamos inmersos en una situación simbólica y cognitiva y que desconocemos con exactitud el origen de los códigos y símbolos que nos ayudan a organizar nuestros pensamientos. Es un punto de vista interesante, pero sigo creyendo que los humanos respondemos al entorno de forma adaptativa y corporizada. Entonces, me pregunto: ¿es esto lo que nos diferencia de las máquinas? AS: Esa es la pregunta central. Existe una perspectiva dominante en la industria tecnológica y la investigación en IA llamada "funcionalismo computacional". Sostiene que las funciones cerebrales —como la visión, el cálculo, el lenguaje— pueden implementarse en cualquier sustrato, biológico o no. Según esta línea de pensamiento, no importa si la computación ocurre en neuronas o en chips de silicio. No creo que ningún material pueda generar experiencia. Los modelos y las estadísticas son excelentes herramientas, pero no son reales ni existen fuera de nosotros.
La era del capitalismo cognitivo. En San Francisco, junto a las grandes tecnológicas, hay pobreza. – Imagen: iStockphoto
CC: En SXSW este año, la futurista Amy Webb presentó experimentos de IA creados con material biológico, como neuronas cultivadas en laboratorio. ¿Ha visto este tipo de investigación? ¿Qué opina de estos intentos de combinar la IA con materia orgánica? AS: Todavía no he visto este resultado, pero la idea de la inteligencia híbrida —en parte biológica, en parte artificial— existe desde hace décadas. Ya tenemos implantes cerebrales para el párkinson, por ejemplo. Quizás con el tiempo los usemos para mejorar la memoria y la cognición. Pero aún sabemos muy poco sobre cómo intervenir de forma segura.
CC: ¿Crees que la IA es más un producto capitalista o algo que realmente transformará a la humanidad, como la computadora personal? AS: Las grandes empresas buscan ganancias y competitividad. La IA se está utilizando para enriquecer a quienes ya son ricos. Hay quienes creen que la IA curará enfermedades, resolverá crisis climáticas y eliminará el trabajo —una especie de utopía—, y hay quienes creen que nos destruirá. Soy escéptico al respecto. La IA es poderosa, pero no es mágica.
CC: En muchas narrativas sobre la IA, parece existir un afán de progreso ilimitado, como si fuera posible superar las limitaciones humanas, incluso la muerte. ¿Crees que esta búsqueda de la inmortalidad y el control total forma parte de la imaginación tecnológica que impulsa a Silicon Valley? AS: La IA está siendo programada para buscar recompensas, igual que nosotros. En Silicon Valley, existe una obsesión con la eternidad; con colonizar Marte; con convertirse en una máquina inmortal. Quieren salvar a la humanidad solo para reemplazarla con IA.
En Silicon Valley, muchos no quieren abordar la desigualdad, simplemente la evitan. Y aún se creen progresistas.
CC: He estado investigando el comportamiento de los directivos de grandes empresas que no pertenecen directamente a la clase capitalista, pero que tampoco se consideran trabajadores. ¿Cree que este estrato de líderes corre cada vez más riesgo de perder oportunidades laborales o de caer en la precariedad laboral? AS: Totalmente. Participo en un colectivo aquí en Silicon Valley llamado Acción Colectiva en Tecnología. Muchos trabajadores tecnológicos no se consideran trabajadores y se oponen a la idea de los derechos laborales. Si bien tenemos muchos privilegios, corremos constantemente el riesgo de caer en la precariedad y convertirnos en conductores de aplicaciones.
CC: Es un distanciamiento salarial y simbólico de la clase trabajadora. La profesora Elizabeth Currid-Halkett lo llama la suma de pequeñas virtudes: yoga, kombucha, coches eléctricos… Un estilo de vida progresista que excluye a los pobres. ¿Les suena? AS: Totalmente. En San Francisco, hay un grave problema de indigencia. En Silicon Valley, muchos no quieren abordar la desigualdad, simplemente evitarla. Y siguen creyéndose progresistas.
*Periodista, docente e investigadora en Comunicación y Cultura Digital.
Publicado en el número 1373 de CartaCapital , del 6 de agosto de 2025.
Este texto aparece en la edición impresa de CartaCapital bajo el título 'Los límites de los robots'
CartaCapital