En búsqueda de máquinas pensantes: del siglo XVII al XXI

La fascinación de crear máquinas pensantes comenzó con Descartes y ahora nos enfrentamos a las implicaciones éticas de la Inteligencia General Artificial con capacidades humanas similares para tomar decisiones autónomas, pero también conciencia.
21 Diciembre, 2023
Pexels.
Pexels.

De la idea a la acción

Desde los inicios de la Revolución Científica en el siglo XVII, ha existido una fascinación inquebrantable por la idea de crear máquinas capaces de pensar y actuar de manera similar a los seres humanos.

Este anhelo ha sido un hilo conductor a lo largo de la historia de la ciencia y la tecnología, y su exploración ha llevado a desarrollos significativos en la Inteligencia Artificial (IA) contemporánea.

Las raíces de este conocimiento se encuentran en la filosofía y el pensamiento mecanicista en donde filósofos como René Descartes especulaban sobre la posibilidad de tratar a los seres humanos como máquinas racionales, sentando las bases para la concepción de máquinas pensantes. Si bien Descartes es más conocido por su famosa frase "Cogito, ergo sum" (Pienso, luego existo), también abordó la cuestión de la relación entre la mente y el cuerpo. Aunque no propuso directamente la idea de máquinas inteligentes, sentó las bases filosóficas para futuros debates. Fue un filósofo-matemático que planteó la noción de animales-máquina en su obra Discurso del Método (1637) que sugiere que los animales podrían ser entendidos como máquinas complejas que operan sin conciencia con un comportamiento automatizado en relación con su visión mecanicista.

Thomas Hobbes, filósofo inglés considerado como uno de los fundadores de la filosofía política moderna, sugirió la posibilidad de construir máquinas capaces de realizar tareas que normalmente requerían inteligencia humana. Tocó brevemente la idea de máquinas en su obra Leviatán (1651) en el capítulo “De corpore” en donde sugiere la posibilidad de que los seres humanos fueran capaces de construir máquinas que pudieran realizar tareas que normalmente requerían de inteligencia humana desde una perspectiva también mecanicista. Las ideas de Hobbes se consideran relevantes porque sugirió que el pensamiento y la racionalidad podrían ser entendidos y replicados a través de procesos mecánicos. Aunque no desarrolló la idea a detalle, sentó las bases para futuras investigaciones en el campo de la IA y la comprensión de la relación entre la mente y las máquinas.

Sin embargo, no será hasta la tercera revolución industrial que tiene como marco inicial la década de 1950 que la idea de máquinas pensantes se vuelve realidad con el desarrollo de la microelectrónica. Alan Turing, uno de los padres de la ciencia de la computación, formalizó el concepto de una “máquina universal” estableciendo los fundamentos de la teoría de la computación y sentando las bases para la creación de máquinas que pudieran emular procesos mentales humanos. En su artículo Computing Machinery and Intelligence (1950), se formulaba la siguiente pregunta: ¿las máquinas pueden pensar?

En las décadas posteriores a Turing, se produjo un progreso constante en la IA, con desarrollos que abordaban la resolución de problemas complejos, el procesamiento del lenguaje natural y la toma de decisiones, todos inspirados en la idea de replicar la mente humana.

El término “inteligencia artificial” se utilizó por primera vez en la conferencia de Dartmouth en 1956, (McCarthy, Minsky, Rochester, Shannon, 1955), para describir la ciencia y la ingeniería de la creación de máquinas inteligentes. Marvin Minsky, considerado como el padre de la IA, destacó por sus trabajos sobre el aprendizaje de las computadoras en sistemas que integran la robótica y el lenguaje para tomar decisiones aparentemente autónomas “que requerían inteligencia.”

El primer bot de la historia contemporánea

En las décadas de 1960 y 1970, la IA comenzó a centrarse en áreas como la resolución de problemas y el procesamiento del lenguaje natural. Se desarrollaron sistemas que utilizaban conocimientos y reglas para tomar decisiones automatizadas.

Surge el primer bot conversacional de la historia, el Programa informático ELIZA, diseñado por el Instituto Tecnológico de Massachussets (MIT, por sus siglas en inglés) entre 1964 y 1966 por el profesor Joseph Weizenbaum. Funcionaba buscando palabras clave en la frase escrita por el usuario y respondía con una frase modelo registrada en su base de datos. En ese sentido, la máquina aparentaba tener una conversación lógica y continua con un paciente (fue programada para interactuar con personas que requerían asistencia psicológica y para mostrar la superficialidad entre el hombre y la máquina). Lo hacía reconociendo palabras clave y preguntando sobre ellas como si fuera un psicólogo. Por ejemplo, si alguien mencionaba la madre en una frase, el bot automáticamente le pediría que le dijese más sobre su familia. De esta manera se creaba una ilusión de entendimiento e interacción real. La limitante es que no podía aprender de sus conversaciones.

En las décadas de 1980 y 1990, la IA se convirtió en un tema popular en la cultura occidental, con películas como Terminator (1984) y Matrix (1999), pero lo más relevante es que esta tecnología comenzó a aplicarse en áreas como la medicina y la industria automotriz.

En 1996 la computadora Deep Blue desarrollada por la empresa tecnológica IBM venció en un juego de ajedrez al ajedrecista ruso Gari Kaspárov, considerado como uno de los mejores del mundo en su momento. De manera paralela, el crecimiento de Internet en los 90 proporcionó enormes conjuntos de datos que serían cruciales para el entrenamiento de la IA. 

A inicios de los 2000 se advierten mejoras en el Procesamiento del Lenguaje Natural (PLN) en lo que se refiere a procesamiento de texto y lenguaje. El aprendizaje automático del Machine Learning se convirtió en una herramienta central en IA con algoritmos cada vez más sofisticados.

A finales de la primera década del siglo XXI el surgimiento de “Big Data” proporcionó aún mas recursos para entrenar sistemas basados en inteligencia artificial. Estas tecnologías llevaron a avances significativos en visión por computadora y reconocimiento de voz. Siri, Alexa y Cortana se convirtieron en los grandes asistentes virtuales personales.

A mitad de los 2010 la carrera por los vehículos autónomos comenzó con compañías como Tesla y Waymo. Es a inicios de la segunda década (2011) que la generalización de IA comienza a tomar una importancia relevante sobre todo en sectores como la salud, finanzas y el comercio electrónico, pero también es el inicio de las discusiones y los debates sobre el impacto ético, la privacidad y la seguridad de la IA.

La era de los modelos de lenguaje

A inicios del 2020 nos enfrentamos a la pandemia del COVID- 19 que cambiaría la forma de involucrarnos con nuestro entorno a nivel global, pero también era el momento en que empresas como Open AI aprovechaba la situación de confinamiento mundial para lanzar al mercado GPT-3 e iniciaba así la era de los modelos de lenguaje de gran escala en generación de texto, aprendizaje y comprensión. En el sector médico, los avances en diagnósticos y personalización del tratamiento médico son una realidad.

En la actualidad 2023 y más allá, la IA se encuentra en una amplia gama de aplicaciones y servicios, desde la creación de contenido y de asistentes virtuales hasta la toma de decisiones empresariales y sistemas de conducción autónoma. 

La IA es un campo de estudio multidisciplinario que busca desarrollar sistemas y algoritmos capaces de imitar la inteligencia humana en máquinas. Para los expertos en ciencias de la computación, Stuart Russel y Peter Norvig, la IA es la combinación de algoritmos planteados con el propósito de crear máquinas que presenten capacidades iguales a las del ser humano. (Russel y Norvig, 2009). En este sentido, asocia características de la inteligencia humana como el aprendizaje, el reconocimiento, el procesamiento de lenguaje natural, la toma de decisiones y la resolución de problemas.

La IA trabaja con el conocimiento, para lo cual requiere de vías que permitan su estructuración mediante una notación lo suficientemente precisa como para ser utilizado por el sistema. El razonamiento, desde el punto de vista computacional, es el proceso general llevado a cabo por un sistema para comportarse de manera racional a partir del conocimiento que tenga de su entorno y de esa manera comienza a hacer sus propios aprendizajes que resultan en: aprendizaje supervisado (reconocimiento de imágenes en función de imágenes previamente etiquetadas), aprendizaje no supervisado (detección de anomalías por sí solo) y las redes neuronales profundas que sirven para hacer reconocimiento de voz, traducciones automáticas y diagnósticos médicos. (Zhai, Oliver, Kolesnikov, and L. Beyer, 2019)

En el siglo XXI, la IA ha experimentado un resurgimiento gracias a avances en el aprendizaje automático y la minería de datos. A medida que avanzamos, la búsqueda de máquinas que piensen y actúen como humanos continúa siendo una empresa ambiciosa y desafiante; por supuesto que los desafíos éticos como la privacidad y el control plantean cuestiones importantes en torno a esta búsqueda.

El tipo de IA que conocemos hasta ahora se llama Inteligencia Generativa, es decir que genera conocimiento a través de inputs (insumos humanos) con los que se alimenta la Big Data (tera millones de datos). El debate en el presente y en un futuro no muy lejano se centra en conocer e investigar las implicaciones éticas y humanas que se alcanzarán cuando esta inteligencia se transforme en una Inteligencia General Artificial (AGI, por sus siglas en inglés), con capacidades humanas similares no sólo para tomar decisiones autónomas sino también conciencia.


Referencias de interés

Descartes, René (1637), Discurso del Método, Alianza Editorial, primera edición, 2011.

Future of Life, Pause Giant AI Experiments: An Open Letter (March 2023), https://futureoflife.org/open-letter/pause-giant-ai-experiments

Hobbes Thomas (1651), Leviathan, Penguin Classics, 2017.

McCarthy, John, Minsky Marvin L., Rochester Nathaniel, Shannon Claude E., “ A proposal for the Dartmouth Summer Research Project on Artificial Intelligence, August 31, 1955, AI Magazine, Vol. 27, no 4, winter 2006. http://jmc.stanford.edu/articles/dartmouth/dartmouth.pdf

Russel Stuart and Norvig Peter, (2009) Artificial intelligence—a modern approach, Prentice Hall. Series in Artificial Intelligence, Englewood Cliffs, NJ. y Cambridge University Press: 07 July 2009. https://www.cambridge.org/core/journals/knowledge-engineeringreview/article/abs/artificial-intelligencea-modern-approach-by-stuart-russell-andpeter-norvig-prentice-hall-series-in-artificial-intelligence-englewood-cliffsnj/65AD9B9C5853AE2595E99E26800C30CE

Turing, A.M. (1950) Computing Machinery and Intelligence, Volume LIX, Issue 236, October 1950, Pages 433–460, https://doi.org/10.1093/mind/LIX.236.433

Turing, A. M.; Girard, J. I. (1995). “La machine de Turing”. Paris: Eds. du Seuil,

Claudia Jiménez Claudia Jiménez Politóloga e Internacionalista en temas de cooperación internacional y derechos humanos en América Latina, con 20 años de experiencia en consultorías nacionales y gobierno. Profesora universitaria y conferencista. Desarrolladora de cursos y proyectos de tecnología y ética para la academia y empresas. Catedrática de la Escuela de Ciencias Sociales y Gobierno, y de Estudios Humanísticos y Educación del Tecnológico de Monterrey. Pionera en Inteligencia Artificial en educación.