ESCRIBA LO QUE DESEA LEER EN ESTE BLOG

martes, 15 de septiembre de 2020

¿Puede la inteligencia artificial “pensar”?

¿Puede la inteligencia artificial “pensar”?

La ciencia ficción y la ciencia no parecen estar de acuerdo en la forma en que debemos pensar sobre la inteligencia artificial. La ciencia ficción quiere representar a los agentes de inteligencia artificial como máquinas pensantes, mientras que las empresas de hoy usan la inteligencia artificial para tareas más mundanas como llenar formularios con automatización de procesos robóticos o conducir su automóvil. Al interactuar con estas interfaces de inteligencia artificial en nuestro nivel actual de tecnología de inteligencia artificial, nuestra inclinación humana es tratarlas como máquinas expendedoras, en lugar de tratarlas como a una persona. ¿Por qué? Porque pensar en la IA como una persona (antropomorfizar) conduce a una decepción inmediata. La IA de hoy es muy estrecha y, por lo tanto, desviarse a través de la línea invisible entre lo que estos sistemas pueden y no pueden hacer conduce a respuestas genéricas como “No entiendo eso” o “Todavía no puedo hacer eso”. Aunque la tecnología es extremadamente genial, simplemente no piensa de la manera que tú o yo pensamos que piensas.
Veamos cómo funciona ese proceso de “pensamiento” y examinemos cómo hay diferentes tipos de pensamiento dentro de los sistemas de IA.

Primero, déjame convencerte de que pensar es algo real. Dejando a un lado toda la conversación sobre la conciencia, hay un argumento filosófico bastante interesante de que pensar es solo computar dentro de tu cabeza. Como resultado, esto ha sido investigado, y podemos sacar algunas conclusiones más allá de solo imaginar lo que realmente podría ser el pensamiento.

En el libro “Pensar rápido y lento”, el premio Nobel Daniel Kahneman habla sobre los dos sistemas en nuestro cerebro que hacen pensar: un sistema de pensamiento rápido y automatizado (Sistema 1), y un sistema de pensamiento lento y más deliberativo (Sistema 2). Al igual que tenemos un cerebro izquierdo y derecho atascado en nuestra única cabeza, también tenemos estos dos tipos de sistemas de pensamiento en nuestras cabezas, hablando entre nosotros y formando la forma en que vemos el mundo. Y, por lo tanto, pensar no se trata tanto de estar en lo correcto, sino de dos maneras de tomar decisiones. Los sistemas de inteligencia artificial de hoy en día aprenden a pensar rápida y automáticamente (como el Sistema 1), pero la inteligencia artificial como ciencia aún no tiene un buen manejo de cómo hacer el enfoque de pensamiento lento que obtenemos del Sistema 2. Además, los sistemas de inteligencia artificial de hoy en día hacen que el mismo tipo de errores que el Sistema 1, donde los prejuicios, los atajos y las generalizaciones se incorporan a la máquina “pensante” durante el aprendizaje. Con la IA de hoy, no hay un proceso de pensamiento deliberativo paso a paso. Por ejemplo, ¿cómo puede la IA “pensar”, cuando un componente principal de lo que se trata el pensamiento no está listo para el horario estelar?

Ahora que tenemos un poco más de definición sobre qué es pensar, ¿cómo podemos hacer más inteligencia artificial similar a la humana? Quizás representar bucles de retroalimentación nos lleve a una especie de máquina de pensar como el Sistema 2. Bueno, resulta que todavía no lo hemos resuelto. Los modelos de IA no contienen conocimiento común sobre el mundo. Por ejemplo, recuerdo que Yann Lecun, un “padre fundador” de la IA moderna, pronunció una oración de ejemplo “Atravesó la puerta” y señaló que los modelos de IA de hoy no pueden decidir qué significa esto. Hay una interpretación tonta en la que podemos concluir que una persona se estrelló contra una puerta como un superhéroe y la destrozó. Hay otra interpretación en la que la puerta estaba abierta o la persona abre la puerta para cruzarla. Desafortunadamente, sin conocimiento común, realmente no sabes qué situación es más probable. Esto nos muestra que incluso las situaciones de “pensar rápido” pueden ir mal usando las herramientas que tenemos disponibles hoy.

Vivimos en un mundo donde la inteligencia artificial de pensamiento rápido es la norma, y ​​los modelos se entrenan lentamente en grandes cantidades de datos. La razón por la que no puede hacer un mejor motor de búsqueda que Google no es el secreto de sus algoritmos de búsqueda. Más bien, es el hecho de que tienen datos que usted no tiene, desde excelentes rastreadores web hasta cámaras en automóviles que circulan por su vecindario. Actualmente, el valor en AI son los datos, y los algoritmos son en su mayoría gratuitos y de código abierto. Recopilar grandes cantidades de datos no es necesariamente suficiente para garantizar que una característica funcione. A menudo se requieren esfuerzos masivos en el trabajo humano. En el futuro, los algoritmos de pensamiento que se enseñan a sí mismos pueden representar la mayor parte del valor en un sistema de inteligencia artificial, pero por ahora, todavía necesita datos para hacer un sistema de inteligencia artificial, y los datos son la parte más valiosa del proyecto.

Pensar no se separa fácilmente de la condición humana, pero los humanos también estamos lejos de ser perfectos. Podemos ser inteligentes en promedio, pero como individuos, no estamos diseñados para hacer estadísticas. Hay algunas pruebas de la sabiduría de las multitudes, pero una multitud con horquillas y antorchas puede cambiar de opinión. Como resultado, estamos adaptados a través de las generaciones para evitar que los leones nos coman, en lugar de adaptarnos para ser los mejores en el cálculo. Los humanos también tenemos muchos sesgos y atajos integrados en nuestro hardware. Está bien documentado. Por ejemplo, la correlación no es causalidad, pero a menudo las confundimos. Una colega mía tiene una historia divertida de su licenciatura en matemáticas en una universidad respetada, donde los estudiantes jugarían un juego llamado “estadísticas de pollo”, donde demoran tomar su curso de estadística hasta el cuarto año, esperando cada año que el requisito tomar el curso será eliminado del programa.

Dadas estas muchas limitaciones en nuestro pensamiento humano, a menudo nos sorprenden las conclusiones alcanzadas, pero nuestras contrapartes de la máquina. “Pensamos” de manera tan diferente el uno del otro. Cuando vemos una película realmente relevante o una recomendación de producto, nos sentimos impresionados por este increíble truco de magia de recomendación, pero no vemos cómo se realiza el truco de magia. Y uno está tentado a concluir que el pensamiento basado en máquinas es mejor o más limpio que nuestro proceso biológico desordenado, porque se basa en tanta verdad y matemáticas. En muchas situaciones eso es cierto, pero esa verdad esconde un oscuro secreto subyacente. En muchos casos, no está tan claro por qué la inteligencia artificial funciona tan bien. La ingeniería se adelantó un poco a la ciencia, y estamos jugando con herramientas que no entendemos completamente. Sabemos que funcionan y podemos probarlos, pero no tenemos un buen sistema para probar por qué funcionan las cosas. De hecho, hay algunas acusaciones incluso en círculos académicos respetados (diapositiva 24, aquí) de que la teoría básica de la inteligencia artificial como un campo de la ciencia aún no se define rigurosamente. No se trata solo de insultos o celos lanzados por los matemáticos a los ingenieros. La IA es un montón de campos unidos, y realmente hay una falta de conexión en el campo entre cómo hacer que las cosas funcionen y demostrar por qué funcionan. Y entonces la pregunta sobre el pensamiento y la IA también es una pregunta sobre el conocimiento. Puede conducir un automóvil si no sabe exactamente cómo funciona en el interior, por lo que tal vez pueda pensar, incluso si no sabe por qué funciona su pensamiento.

Suponiendo que no tenemos una teoría concreta subyacente en el campo de la inteligencia artificial, ¿cómo pueden hacer algo los ingenieros? Bueno, hay muy buenas formas de probar y entrenar modelos de IA, lo cual es lo suficientemente bueno para la economía actual. Hay muchos tipos de IA, incluido el aprendizaje supervisado, el aprendizaje no supervisado, el aprendizaje de refuerzo y más. Los ingenieros no tienden a hacer preguntas como “¿está pensando?”, Y en su lugar hacen preguntas como “¿está roto?” Y “¿cuál es el puntaje de la prueba?”

El aprendizaje supervisado es un tipo muy popular de inteligencia artificial que hace predicciones rápidas en un dominio limitado. La maquinaria de vanguardia para realizar el aprendizaje supervisado en grandes conjuntos de datos son las redes neuronales profundas alimentadas. Este tipo de sistema realmente no piensa. En cambio, aprende a elegir una etiqueta (para la clasificación) o un número (para la regresión) en función de un conjunto de observaciones. La forma en que las decisiones se integran en las redes neuronales durante el “aprendizaje” no es obvia sin un fuerte paso de validación. Los modelos de IA más transparentes han existido durante mucho tiempo, por ejemplo, en áreas como la teoría de juegos para la planificación militar. Los modelos explícitos, como los árboles de decisión, son un enfoque común para desarrollar un sistema de inteligencia artificial interpretable, donde se aprende un conjunto de reglas que definen su camino desde la observación hasta la predicción, como elegir su propia historia de aventuras donde cada dato sigue un camino desde el principio del libro a la conclusión.

Otro tipo de inteligencia artificial llamada aprendizaje de refuerzo implica aprender la transición de una decisión a la siguiente en función de lo que sucede en el entorno y lo que sucedió en el pasado. Sabemos que sin modelos de “medio ambiente” mucho mejores del mundo, estos enfoques aprenderán súper lentamente, incluso para realizar las tareas más básicas. Los sistemas que aprenden a resolver problemas de esta manera dependen en gran medida de modelos precisos de cómo funciona el mundo. Cuando se trata de un problema relacionado con los humanos, necesitan muchos datos sobre lo que esos humanos hacen, les gusta o piensan. Por ejemplo, no puedes aprender a generar música increíble sin datos sobre lo que a los humanos les gusta escuchar. En un simulador de juego, un modelo de IA puede jugar contra sí mismo muy rápidamente para ser inteligente, pero en aplicaciones relacionadas con humanos, el lento ritmo de la recopilación de datos aumenta la velocidad del proyecto. Y, en un sentido amplio, el campo de la IA todavía está en construcción al mismo tiempo que estamos conectando muchas cosas.

Independientemente de la maquinaria técnica subyacente, cuando interactúa con un modelo de inteligencia artificial entrenado en la gran mayoría de las aplicaciones de la vida real actual, el modelo está pre-entrenado y no está aprendiendo sobre la marcha. Esto se hace para mejorar la estabilidad de su experiencia, pero también oculta el desorden de la tecnología subyacente. El aprendizaje tiende a suceder es un espacio seguro donde las cosas se pueden probar, y solo experimenta las predicciones (también llamadas inferencia) como cliente del sistema de inteligencia artificial.

A pesar de la exageración, los modelos de IA que piensan como nosotros no están llegando a la vuelta de la esquina para superar a la humanidad en todos los sentidos. Las máquinas verdaderamente pensantes son definitivamente dignas de investigación, pero aún no están aquí. Hoy, los modelos de IA y los analistas humanos trabajan lado a lado, donde el analista da su opinión y es asistido por un modelo de IA. Es útil pensar en modelos matemáticos más generales como la estimación de lluvia y el modelado de riesgo de crédito soberano para pensar cómo los modelos matemáticos son cuidadosamente diseñados por los humanos, codificando grandes cantidades de pensamiento humano cuidadoso y deliberativo. La práctica de construir sistemas de IA implica mucha lectura y creatividad. No se trata solo de codificar el teclado.

Siento que los desarrolladores de software de IA construyen gradualmente una idea de cómo pensar sobre lo que está haciendo un modelo de IA, y no está “pensando”. Quería obtener información de alguien que no estuviera relacionado conmigo en el campo de la inteligencia artificial, para ver si se sienten de la misma manera. A través del CEO de DTA, establecí una conversación con Kurt Manninen sobre su trabajo en un producto de inteligencia artificial llamado AstraLaunch. Le hice muchas preguntas tecnológicas a Kurt, lo que me llevó a la pregunta “¿Piensa el sistema como lo hace la gente?”

AstraLaunch es un producto bastante avanzado que incluye aprendizaje supervisado y no supervisado para adaptar las tecnologías a las necesidades de la empresa de manera muy técnica. Una tecnología complicada como esta es una buena área para pensar en “pensar”. El sistema tiene un proceso de admisión que conduce a una etapa de recopilación de documentos y luego genera un cuadro de documentos y tecnologías relevantes ordenados. Lo que quería entender de Kurt es la forma en que piensa acerca de cuál es la tecnología correspondiente. ¿Está pensando el sistema cuando asigna las necesidades de la NASA a las capacidades tecnológicas de las empresas? Al diagnosticar una predicción incorrecta, ¿piensa que el modelo está cometiendo un error, o es el origen del error con el fabricante del modelo y / o los datos?

La respuesta de Kurt estuvo muy cerca de lo que esperaba de mi propia experiencia. La tecnología como AstraLaunch involucra a humanos y modelos de inteligencia artificial que trabajan juntos para aprovechar el enfoque de procesamiento de información de fuerza. Pero, Kurt sintió firmemente, como yo, que los errores en los modelos de IA son culpa de las personas, no del modelo. Un desarrollador de IA puede ver dónde la capacitación no se configuró correctamente para comprender el lenguaje o el vocabulario, o dónde se produjo un error en la recopilación del conjunto de datos, etc

Volviendo a la pregunta original sobre inteligencia artificial y pensamiento, creo que podemos concluir sólidamente que estos sistemas no hacen pensar en absoluto. Si solo tenemos inteligencia artificial rápida y automática (Sistema 1) para trabajar, ¿podemos pensar en un modelo de IA como un empleado talentoso que piensa de manera diferente sobre el mundo? Bueno no. La IA probablemente engañará si la capacitación no se gestiona, por lo que es un empleado perezoso y engañoso. Utilizará la salida fácil para obtener el puntaje más alto en cada prueba, incluso si el enfoque es tonto o incorrecto. A medida que intentamos construir un “Sistema 2” que piense más como nosotros, debemos recordar que pensar no se trata de pasar una prueba. En cambio, considere esta cita:

La prueba durará toda su vida, y estará compuesta por los millones de decisiones que, cuando se toman juntas, harán que su vida sea suya. Y todo, todo, estará en ello.


VER AQUÍ