Show logo
Explora todos los episodios

Hablar con las máquinas

  |  Command Line Heroes Team  
Desarrollo y distribución de aplicaciones.
IA/ML
Historia de la tecnología

Command Line Heroes • • Command Line Heroes: tercera temporada: Hablar con las máquinas

Command Line Heroes: tercera temporada: Hablar con las máquinas

About the episode

En la década de los 50, crear una máquina pensante parecía cuento de ciencia ficción. Pero John McCarthy decidió hacerlo realidad, y comenzó con un idioma que llamó LISP. Colin Garvey nos cuenta que McCarthy creó el primer lenguaje para la inteligencia artificial (IA). Sam Williams explica que el interés temprano en las máquinas pensantes se extendió desde la academia hacia el mundo empresarial, y que después de que ciertos proyectos no cumplieron sus promesas, llegó un largo invierno en este sector. Ulrich Drepper habla de que los sueños de la inteligencia artificial fueron más allá de lo que el hardware podía lograr en ese momento. Pero el hardware se vuelve más poderoso día con día. Chris Nicholson señala que las máquinas actuales tienen suficiente potencia de procesamiento para manejar esa demanda de recursos, de manera que estamos en medio de un resurgimiento revolucionario en la investigación y el desarrollo de esta área. Finalmente, Rachel Thomas habla de otros lenguajes de IA además de LISP, y explica los diferentes tipos de tareas para las que se está preparando a la inteligencia artificial.

Command Line Heroes Team Red Hat original show

Suscribir

Subscribe here:

Listen on Apple Podcasts Listen on Spotify Subscribe via RSS Feed

Transcripción

Kaspárov está nervioso. Está defendiendo las piezas que puede, pero sabe que ya perdió. En la primavera de 1997, el campeón mundial del ajedrez, Garry Kaspárov, perdió una partida contra el programa informático Deep Blue. Fue un momento decisivo para la inteligencia artificial. Para algunos fue una crisis existencial, un desafío a la supremacía del intelecto humano. Pero para los tecnólogos, esto era un parteaguas distinto, un avance importante en el campo de la inteligencia artificial. Era una señal de que su sueño de una máquina realmente inteligente tal vez no era tan descabellado. Seguimos soñando con una máquina que pueda pensar, y todavía nos faltan muchos años y muchos avances extraordinarios para lograrlo. ¿Pero cómo llegamos a ese momento? ¿Qué avances nos llevaron a la famosa derrota de Kaspárov? ¿Y qué hicimos a partir de entonces? Estás escuchando Command Line Heroes en español, un podcast original de Red Hat. Esta temporada nos hemos dedicado a analizar los misterios de los lenguajes de programación, y a descubrir su historia y su potencial. En este episodio vamos a hablar de la inteligencia artificial. ¿Qué lenguaje utilizas cuando la tecnología tiene su propia mente? ¿Cómo nos ayudaron los lenguajes de programación a llegar al momento de Deep Blue y a seguir avanzando mucho más? La pregunta de qué lenguaje funciona mejor con una máquina que piensa nos la hemos planteado durante más de medio siglo. Nuestra historia comienza en la década de 1940, cuando el término "inteligencia artificial" ni siquiera se había acuñado. Para empezar nos tenemos que remontar al final de la Segunda Guerra Mundial. Hay una sensación de que los aliados ganaron la guerra gracias a la tecnología. Había una idea muy optimista de que con ella se podía lograr todo. Toda esa generación creía en el poder de la informática. De esa generación proviene uno de los padres de la inteligencia artificial, John McCarthy. McCarthy era un matemático brillante que revolucionó la forma en que nos comunicamos con las máquinas. Me interesaba conocer los orígenes de sus ideas y saber cómo surgió ese cambio de paradigma. Por ejemplo, se me ocurre una primera pregunta: cuando McCarthy y sus compañeros se imaginaban el futuro de las máquinas inteligentes, ¿qué se imaginaban exactamente? Uy, qué buena pregunta. Para encontrar la respuesta entrevisté a Colin Garvey. Es historiador del departamento de Estudios de Ciencia y Tecnología del Instituto Politécnico Rensselaer. Aquí presento una parte de nuestra conversación. McCarthy se niega rotundamente a aventurar una idea de ese futuro. Pero, por ejemplo, probablemente su programa más famoso, que de hecho nunca se implementó, sino que es como un artículo de reflexión, es el advice taker. McCarthy escribió sobre el advice taker en 1960 en un texto titulado Programs with Common Sense. Cuando comienza, parece que el advice taker probablemente es un robot que aprende, y esa es la intención, un robot doméstico que acepta consejos. Le dices: "No, así no, lo estás haciendo mal. Hazlo así". Y el robot entiende a qué te refieres. Suena útil. Sí, podría ser útil. El objetivo del advice taker era conducir desde el escritorio de McCarthy hasta el aeropuerto. Básicamente, formalizó su noción de lo que el robot advice taker debería hacer, que aparentemente era llevarlo al aeropuerto. La formalizó en una serie de declaraciones lógicas con las que el robot tendría que inferir lo que debe suceder en la situación actual para convertirla en la situación deseada. Eso lo formalizó en un tipo de pseudocódigo, así lo llamaríamos ahora. Y ahí es donde también se origina LISP. Luego, en los próximos años, LISP sale como la implementación o el lenguaje de implementación de McCarthy. El lenguaje LISP de McCarthy significó un cambio radical. Ayudaría a una máquina a comprender no solo los comandos, sino también una lógica de sentido común. Lo que McCarthy descubrió fue que podía escribir expresiones condicionales, o sea códigos que implicaran reglas, en lugar de escribir solo comandos directos. De hecho, hubo una serie de importantes avances en la programación con LISP, como los condicionales, la recolección de basura, la recurrencia y muchos más. LISP utilizaba listas de código y datos, lo cual representaba un cambio sencillo pero tenía efectos importantes. Todo esto le abrió la puerta de entrada a un campo que el mismo McCarthy llamó inteligencia artificial. Fue un cambio de paradigma para los lenguajes. Imagínate hablar con una máquina sin darle información completamente detallada. Imagínate invitar a esa máquina a inferir y razonar. Mediante el lenguaje LISP, McCarthy esperaba poder darle algún tipo de inteligencia a la máquina. Bueno, ahora regresemos a mi conversación con Colin Garvey. Pero había de todo tipo de personas trabajando en este proyecto. Había sociólogos, psicólogos, matematicos, científicos informáticos, e incluso lingüistas en la conferencia de Dartmouth del 56. Todas esas personas tenían ideas distintas de hacia dónde debería ir el proyecto de la inteligencia artificial. Colin Garvey es historiador del departamento de Estudios de Ciencia y Tecnología del Instituto Politécnico Rensselaer. El trabajo que estaba haciendo John McCarthy con LISP era audaz y optimista. Aparentemente creía que las máquinas pensantes no solo eran posibles, sino que estaban cerca. A finales de la década de 1950, McCarthy y otros pioneros de la inteligencia artificial habían abierto un campo enteramente nuevo. Las empresas estadounidenses comenzaron a interesarse y a invertir dinero en esas ideas. El problema es que las promesas resultaron ser un poquito prematuras. En la década de 1960, había compañías que estaban gastando mucho dinero en inteligencia artificial. Escuchamos a Sam Williams, periodista de tecnología que ha estudiado la historia temprana de la inteligencia artificial. General Electric, IBM, los gigantes de la informática, tenían divisiones enteras de investigación y desarrollo dedicadas solo a la inteligencia artificial. Pero luego, cuando resultó que la inteligencia artificial no era algo que pudiera producirse masivamente y que tuviera una aplicación empresarial obvia e inmediata, esas empresas perdieron el interés. Lo que siguió se conoce como el primer "invierno de la inteligencia artificial". Fue un período que duró casi 20 años, de la década de 1970 hasta finales de la década de 1980, en que los fondos para investigación se agotaron. Pero, ¿por qué no funcionaron las primeras ideas sobre inteligencia artificial? Los investigadores estaban muy por delante de lo que podía lograr el hardware. Ulrich Drepper es ingeniero distinguido de Red Hat. Él nos puede dar algunos datos sobre el poder informático de la época. En los 60, 70 y 80, las computadoras no eran suficientemente rápidas. No tenían suficiente memoria. No tenían suficiente espacio de almacenamiento. Los algoritmos que se habían desarrollado en principio, funcionaban, pero no se podían ejecutar con los recursos disponibles en ese momento. LISP tenía muchas cosas buenas a su favor. Podía manipular símbolos, no solo números. Tenía recolección automática de basura y un modelo de memoria dinámico. Todas esas son características que facilitan la programación de sistemas complejos. Pero también tenía un costo. LISP necesitaba mucha memoria y mucho poder de procesamiento. Durante el invierno de la inteligencia artificial, la computación personal estaba en auge, pero las computadoras personales no tenían los recursos suficientes para ejecutar programas complejos de LISP. Los desarrolladores optaron por lenguajes más eficientes como C. LISP se quedó atrapado en el mundo académico. Era muy caro comprar esas máquinas LISP especializadas. No se podían usar para otros fines. Entonces, cuando el financiamiento se acabó, esas máquinas especializadas también desaparecieron. Ulrich Drepper es ingeniero distinguido de Red Hat. Durante mucho tiempo, LISP se asoció con proyectos de investigación costosos y poco prácticos. Pero eso ha cambiado. Hola, me llamo Chris Nicholson. Soy fundador y director ejecutivo de Skymind. Chris ha estado observando el resurgimiento de la inteligencia artificial en los últimos años. En este momento estamos en medio de lo que yo llamaría una revolución en la inteligencia artificial. Está impulsada por tres factores principales: mejores algoritmos, más datos y hardware más potente. ¿Puedes explicar un poco más sobre esos tres factores? Claro. Primero, los algoritmos. Hemos hecho avances significativos en el aprendizaje profundo, especialmente en las redes neuronales. Algoritmos como las redes neuronales convolucionales y las redes neuronales recurrentes han mostrado resultados impresionantes en reconocimiento de imágenes, procesamiento de lenguaje natural y otros campos. ¿Y los datos? Los datos son el combustible de la inteligencia artificial moderna. Ahora tenemos acceso a cantidades masivas de datos que simplemente no existían en los 70 y 80. Internet, redes sociales, sensores, dispositivos móviles... todo esto genera datos constantemente. Y la inteligencia artificial moderna, especialmente el aprendizaje automático, necesita muchos datos para funcionar bien. ¿Y el hardware? Ah, el hardware es crucial. Las GPU, que originalmente se diseñaron para gráficos, resultaron ser perfectas para los cálculos paralelos que requiere el aprendizaje profundo. Una GPU moderna puede tener miles de núcleos de procesamiento, comparado con los pocos núcleos de un CPU tradicional. Eso permite entrenar modelos de inteligencia artificial mucho más rápido. ¿Eso significa que los problemas que LISP trataba de resolver en los 60 ahora son factibles? Exactamente. Muchas de las ideas que McCarthy y otros pioneros tenían eran correctas en principio, pero el hardware de la época no podía implementarlas efectivamente. Ahora tenemos el poder computacional para hacer realidad esas visiones. ¿Pero LISP sigue siendo relevante hoy en día? LISP sigue siendo influyente, aunque no es el lenguaje principal para la inteligencia artificial moderna. Muchos de los conceptos que introdujo LISP se han incorporado a otros lenguajes. Y todavía hay nichos donde LISP es muy útil, especialmente en investigación académica y en algunos tipos de sistemas expertos. ¿Qué lenguajes dominan la inteligencia artificial actualmente? Python es definitivamente el líder. Tiene un ecosistema increíble de bibliotecas para inteligencia artificial: TensorFlow, PyTorch, scikit-learn, pandas, NumPy. También vemos R para estadísticas y análisis de datos, y Java y Scala para sistemas distribuidos de gran escala. ¿Por qué Python se volvió tan popular para la inteligencia artificial? Python tiene varias ventajas. Es fácil de aprender y leer, lo cual es importante cuando trabajas con algoritmos complejos. Tiene una comunidad muy activa que ha desarrollado bibliotecas especializadas. Y es muy bueno para prototipado rápido, que es crucial en investigación. ¿Cómo ha cambiado el enfoque de la inteligencia artificial desde los días de LISP? En los días de LISP, el enfoque era más simbólico. Se trataba de representar conocimiento y razonamiento usando símbolos y reglas lógicas. Hoy en día, el enfoque es más estadístico. Usamos grandes cantidades de datos para entrenar modelos que pueden reconocer patrones y hacer predicciones. ¿Cuáles son las aplicaciones más emocionantes de la inteligencia artificial actual? Hay muchas. El reconocimiento de voz y la traducción automática han mejorado dramáticamente. Los vehículos autónomos están cada vez más cerca de la realidad. En medicina, estamos viendo sistemas que pueden diagnosticar enfermedades a partir de imágenes médicas. Y en ciencia, estamos usando inteligencia artificial para descubrir nuevos medicamentos y materiales. ¿Qué desafíos enfrenta la inteligencia artificial actualmente? Uno de los grandes desafíos es la interpretabilidad. Muchos modelos de aprendizaje profundo son "cajas negras" - podemos ver sus resultados, pero no entendemos exactamente cómo llegaron a esas conclusiones. Eso es problemático en aplicaciones críticas como medicina o finanzas. ¿Hay otros desafíos? Sí, los sesgos en los datos son un problema grande. Si entrenas un modelo con datos sesgados, el modelo también será sesgado. También está el problema de la generalización - muchos modelos funcionan bien en situaciones específicas, pero fallan cuando encuentran algo ligeramente diferente. ¿Cómo ve el futuro de la inteligencia artificial? Creo que veremos inteligencia artificial más integrada en nuestras vidas diarias. También espero que veamos avances en inteligencia artificial general - sistemas que puedan razonar sobre múltiples dominios como lo hacen los humanos. Pero eso todavía está bastante lejos. ¿Qué papel juega el código abierto en todo esto? El código abierto es absolutamente crucial. Prácticamente todas las herramientas principales de inteligencia artificial son de código abierto. Eso acelera enormemente la investigación y la innovación, porque los investigadores pueden construir sobre el trabajo de otros en lugar de empezar desde cero. ¿Eso también democratiza el acceso a la inteligencia artificial? Absolutamente. Antes, solo las grandes corporaciones y universidades podían permitirse desarrollar sistemas de inteligencia artificial. Ahora, cualquier persona con una computadora puede descargar TensorFlow o PyTorch y empezar a experimentar. Eso está llevando a una explosión de innovación. ¿Hay riesgos en esa democratización? Como con cualquier tecnología poderosa, hay riesgos. La inteligencia artificial se puede usar para desinformación, vigilancia, armas autónomas. Pero creo que los beneficios superan los riesgos, especialmente si desarrollamos marcos éticos apropiados. ¿Qué consejo le daría a alguien que quiere empezar en inteligencia artificial? Empieza con Python y aprende las matemáticas básicas: álgebra lineal, estadística, cálculo. Luego explora las bibliotecas como scikit-learn para empezar, y después TensorFlow o PyTorch para aprendizaje profundo. Y lo más importante: practica con proyectos reales. ¿Necesitas un doctorado para trabajar en inteligencia artificial? Para nada. Aunque ayuda para investigación de vanguardia, hay muchas oportunidades para personas con diferentes niveles de educación. La industria necesita personas que puedan aplicar técnicas existentes a problemas reales, no solo investigadores que desarrollen nuevos algoritmos. ¿Crees que veremos otro invierno de la inteligencia artificial? Es posible, pero menos probable que antes. La inteligencia artificial actual está resolviendo problemas reales y generando valor económico real. Además, el código abierto hace que la innovación sea más resiliente - no depende de unas pocas empresas o fuentes de financiamiento. ¿Qué tendencias ve para los próximos años? Creo que veremos más automatización de las propias herramientas de inteligencia artificial. AutoML está haciendo que sea más fácil desarrollar modelos sin experiencia profunda. También espero ver más integración entre inteligencia artificial simbólica y estadística - combinando lo mejor de ambos enfoques. ¿Y en términos de hardware? Los chips especializados para inteligencia artificial están mejorando rápidamente. Los TPU de Google, los chips de Nvidia, los procesadores neuromórficos... todo esto va a hacer que la inteligencia artificial sea más rápida y eficiente energéticamente. ¿Cómo cree que la inteligencia artificial cambiará el trabajo? Creo que automatizará muchas tareas rutinarias, pero también creará nuevos tipos de trabajos. Necesitaremos más personas que puedan trabajar junto con sistemas de inteligencia artificial, personas que entiendan tanto la tecnología como los dominios específicos donde se aplica. Una pregunta final: ¿qué legado cree que dejará John McCarthy y LISP? McCarthy fue visionario. Muchas de las ideas que introdujo con LISP - recolección de basura, funciones como ciudadanos de primera clase, evaluación simbólica - ahora son fundamentales en muchos lenguajes modernos. Su visión de máquinas que puedan razonar sigue siendo nuestro objetivo final. Chris Nicholson es fundador y director ejecutivo de Skymind. Es fascinante ver cómo las ideas de McCarthy han evolucionado y cómo el código abierto está democratizando el acceso a la inteligencia artificial. Pero hay algo más que me interesa explorar: el papel de los lenguajes modernos en este resurgimiento. Para eso, hablé con Rachel Thomas, cofundadora de Fast AI, quien ha estado trabajando para hacer que la inteligencia artificial sea más accesible. Hola, me llamo Rachel Thomas. Soy cofundadora de Fast AI y profesora del Instituto de Datos de la Universidad de San Francisco. Rachel ha visto de primera mano cómo Python se ha convertido en el lenguaje dominante para la inteligencia artificial. Python realmente ganó porque llegó en el momento correcto con las herramientas correctas. Cuando el aprendizaje profundo empezó a despegar, Python ya tenía un ecosistema maduro para computación científica con NumPy, SciPy, pandas. Era natural que las nuevas bibliotecas de aprendizaje profundo se construyeran sobre esa base. ¿Qué hace que Python sea tan adecuado para la inteligencia artificial? Varias cosas. Primero, es muy legible y expresivo. Cuando estás implementando algoritmos complejos, eso es crucial. Segundo, tiene un excelente ecosistema de bibliotecas. Y tercero, es muy bueno para el prototipado rápido, que es esencial en investigación. ¿Pero no hay desventajas en usar Python? Sí, Python puede ser lento para algunos tipos de cómputo intensivo. Pero las bibliotecas principales como NumPy y TensorFlow están escritas en C o C++ para las partes críticas, así que en la práctica eso no es un gran problema. ¿Qué otros lenguajes son importantes en inteligencia artificial? R sigue siendo muy popular para estadística y análisis de datos. Julia es prometedor para computación científica de alto rendimiento. Y estamos empezando a ver Swift para TensorFlow, que podría ser interesante para el futuro. ¿Qué hace que Fast AI sea diferente? Nuestro enfoque es hacer que la inteligencia artificial sea accesible para personas que no son expertas en matemáticas o computación. Creemos que necesitamos diversidad en este campo - personas de diferentes backgrounds que puedan aplicar inteligencia artificial a sus propios dominios. ¿Eso significa que cualquiera puede aprender inteligencia artificial? Las herramientas del código abierto ayudan a impedir que veamos otro invierno en la inteligencia artificial. Una razón por la que se dan esos inviernos es que las ideas se atrasan, las redes se rompen y los fondos se acaban. Con las herramientas gratuitas de código abierto, lo que vemos es una aceleración. Vemos que las ideas se ponen a prueba más rápido, se comparten con mayor agilidad. Así que no se trata solo de las herramientas, sino también de los modelos de aprendizaje automático entrenados con anticipación, que un grupo de investigación podría compartir con otro o con el público en general. Por último, lo que se publica en lugares como ARXIV son las ideas en sí. ARXIV, que gestiona la Universidad Cornell. Así que todo eso acelera la velocidad del flujo de ideas. Para mí, esa es como una garantía contra otro invierno de la inteligencia artificial. Hay una confluencia de factores que vuelve a la inteligencia artificial un área muy emocionante, y eso significa que se mueve más rápido que la publicidad que tiene. Chris Nicholson es fundador y director ejecutivo de Skymind. Entonces, el código abierto descongeló el invierno de la inteligencia artificial que habían ayudado a establecer los modelos patentados más antiguos. El nuevo auge de la inteligencia artificial llegó con amplias mejoras de las GPU. Llegó con avances algorítmicos que nos ayudan a capacitar a la inteligencia artificial para que aprenda de los patrones de los datos. Y luego están los datos en sí. Hay conjuntos de datos enormes que alimentan la inteligencia artificial actual. Ese es el motivo principal por el que los nuevos lenguajes están retomando el camino que LISP había abandonado. Le preguntamos a Rachel Thomas, cofundadora de Fast AI, cuáles son los lenguajes adecuados para la inteligencia artificial de la próxima generación. Estamos comenzando a poner la mirada en Swift para TensorFlow. Swift es un lenguaje que desarrolló Chris Lattner, y sé que hay personas que usan Julia y desarrollan Julia. Pero por lo pronto Python es lo que más se usa en el aprendizaje profundo, y por mucho. Eso se debe a que Python es ideal para trabajar con grandes conjuntos de datos. Yo creo que algo que ha cambiado mucho en los últimos 20 años es el auge de los datos y el aumento de los datos. Creo que mucho del trabajo que se hacía antes en la inteligencia artificial tenía más que ver con los sistemas simbólicos... con los sistemas simbólicos abstractos. Y yo diría que actualmente, gran parte del trabajo que se está haciendo en la inteligencia artificial gira en torno a los datos, a identificar alguna cosa en una imagen, a clasificar si la reseña de una película es positiva o negativa... Son problemas que están vinculados a los datos. Yo creo que uno de los motivos por los que Python se estableció por lo menos como un primer ganador es que el ecosistema con NumPy y SciPy, con pandas y todas las bibliotecas de datos en Python estaban suficientemente bien desarrolladas. En la época en que el grupo de John McCarthy trabajaba en el MIT, solo los académicos de élite del mundo podían participar en la inteligencia artificial. Pero los idiomas y los entornos informáticos han evolucionado tanto desde entonces, que la inteligencia artificial ya es para todos. En el episodio uno de esta temporada hablamos de que Python es el primer lenguaje para muchos principiantes. Gracias a él, muchos programadores principiantes han logrado unirse al mundo de la inteligencia artificial. Quiero decirle a la gente que lo único que se necesita es un año de experiencia en programación. No es necesario que seas ningún genio ni que tengas una educación prestigiosa o exclusiva. Lo que necesitamos son personas de todos los campos. En realidad, si tienes una formación diferente, tienes mucho que ofrecer al campo, necesitamos tu punto de vista. Rachel Thomas es cofundadora de Fast AI y profesora del Instituto de Datos de la Universidad de San Francisco. Me encanta eso que dijo Rachel Thomas. Al revisar la historia de la inteligencia artificial, vemos que lo que trata de descubrir son lenguajes que todos podamos usar para comunicarnos. Esa es nuestra verdadera misión: desarrollar soluciones lingüísticas para un mundo en que reina la inteligencia artificial. Soluciones que nos permitan trabajar juntos para desarrollar la próxima innovación. Amigos, hoy fueron testigos de un momento histórico. AlphaGo ganó la partida con gran estilo. Sí, e incluso nos mostró su código. E incluso nos mostró su código. Así que felicidades al programa. En 2015, solo un par de décadas después de que Garri Kaspárov perdiera aquella partida de ajedrez contra Deep Blue, el campeón mundial del go, Lee Sedol, fue derrotado por AlphaGo de Google. Deep Blue había demostrado su poder intelectual con su fuerza bruta informática. Cuando AlphaGo ganó, lo que realmente sorprendió a todo el mundo fue que obtuvo la victoria gracias a las redes neuronales y al aprendizaje por refuerzo. En otras palabras, AlphaGo había logrado dar el siguiente paso hacia la verdadera inteligencia artificial. Pero eso no hubiera sido posible sin el nuevo impulso que le había dado el código abierto. Los nuevos lenguajes nos están acercando a ese sueño. Cada vez nos permiten aprovechar más la inteligencia artificial de las máquinas. Lo bueno es que es un desafío en el que todos podemos colaborar en el mundo del código abierto. Command Line Heroes en español es un podcast original de Red Hat. El próximo episodio es el último de la temporada. Descubriremos cosas sorprendentes sobre un lenguaje muy importante que influyó en casi todos los demás que hemos visto esta temporada. Vamos a profundizar en C. Mientras tanto, sigan programando.

Sobre el podcast

Command Line Heroes

During its run from 2018 to 2022, Command Line Heroes shared the epic true stories of developers, programmers, hackers, geeks, and open source rebels, and how they revolutionized the technology landscape. Relive our journey through tech history, and use #CommandLinePod to share your favorite episodes.