banner
Hogar / Noticias / Lo que Robbie de Isaac Asimov enseña sobre la IA y cómo 'funcionan' las mentes
Noticias

Lo que Robbie de Isaac Asimov enseña sobre la IA y cómo 'funcionan' las mentes

Nov 02, 2023Nov 02, 2023

Samir Chopra

En la clásica historia de ciencia ficción de Isaac Asimov, “Robbie”, la familia Weston posee un robot que sirve como niñera y compañera de su precoz hija preadolescente, Gloria. Gloria y el robot Robbie son amigos; su relación es afectuosa y de cuidado mutuo. Gloria considera a Robbie su leal y diligente cuidador. Sin embargo, la Sra. Weston se preocupa por esta relación "antinatural" entre el robot y su hijo y le preocupa la posibilidad de que Robbie le cause daño a Gloria (a pesar de que está programado explícitamente para no hacerlo); está claro que está celosa. Después de varios intentos fallidos de separar a Gloria de Robbie, su padre, exasperado y agotado por las protestas de la madre, sugiere un recorrido por una fábrica de robots; allí, Gloria podrá ver que Robbie es “sólo” un robot fabricado, no un robot. persona y desenamorarse de ella. Gloria debe aprender cómo trabaja Robbie, cómo se hizo; entonces comprenderá que Robbie no es quien ella cree que es. Este plan no funciona. Gloria no aprende cómo “funciona realmente” Robbie y, en un giro de la trama, Gloria y Robbie se vuelven aún mejores amigos. La señora Weston, la aguafiestas, se ve frustrada una vez más. Gloria sigue "engañada" acerca de quién es "realmente" Robbie.

¿Cuál es la moraleja de este cuento? Lo más importante es que aquellos que interactúan y socializan con agentes artificiales, sin saber (ni preocuparse) cómo “funcionan realmente” internamente, desarrollarán relaciones distintivas con ellos y les atribuirán aquellas cualidades mentales apropiadas para sus relaciones. Gloria juega con Robbie y lo ama como compañero; él se preocupa por ella a cambio. Hay un baile interpretativo que Gloria realiza con Robbie, y las operaciones internas y la constitución de Robbie no tienen relevancia para ello. Cuando surge la oportunidad de conocer esos detalles, más evidencia de la funcionalidad de Robbie (después de que salvó a Gloria de un accidente) distrae e impide que Gloria siga aprendiendo.

Filosóficamente hablando, “Robbie” nos enseña que al atribuir una mente a otro ser, no estamos haciendo una declaración sobre el tipo de cosa que es, sino más bien revelando cuán profundamente entendemos cómo funciona. Por ejemplo, Gloria piensa que Robbie es inteligente, pero sus padres creen que pueden reducir su comportamiento aparentemente inteligente a operaciones de máquinas de nivel inferior. Para ver esto de manera más amplia, obsérvese el caso inverso en el que nos atribuimos cualidades mentales que no estamos dispuestos a atribuir a programas o robots. Estas cualidades, como la inteligencia, la intuición, la perspicacia, la creatividad y la comprensión, tienen esto en común: no sabemos cuáles son. A pesar de las afirmaciones extravagantes que a menudo difunden los profesionales de la neurociencia y la psicología empírica, y varios científicos cognitivos, estos elogios autodirigidos siguen siendo indefinibles. Cualquier intento de caracterizar uno emplea el otro (“la verdadera inteligencia requiere perspicacia y creatividad” o “la verdadera comprensión requiere perspicacia e intuición”) y se involucra, o incluso requiere, agitar las manos extensamente.

Pero incluso si no estamos muy seguros de cuáles son estas cualidades o en qué consisten, cualquiera que sea la cualidad mental, el proverbial “lego educado” está seguro de que los humanos las tienen y las máquinas como los robots no, incluso si las máquinas actúan como nosotros. , produciendo los mismos productos que fabrican los humanos y, ocasionalmente, replicando hazañas humanas que se dice que requieren inteligencia, ingenio o cualquier otra cosa. ¿Por qué? Porque, al igual que los padres de Gloria, sabemos (gracias a que los creadores del sistema nos informaron en los medios populares) que “lo único que están haciendo es [búsqueda de tablas / finalización rápida / búsqueda exhaustiva de espacios de solución]”. Mientras tanto, los atributos mentales que nos aplicamos a nosotros mismos están tan vagamente definidos, y nuestra ignorancia de nuestras operaciones mentales es tan profunda (actualmente), que no podemos decir que “la intuición humana (insight o creatividad) es simplemente [llene los espacios en blanco con actividad física banal”. ].”

Los debates actuales sobre la inteligencia artificial, entonces, avanzan como lo hacen porque cada vez que nos enfrentamos a una “inteligencia artificial”, una cuyas operaciones (creemos) entendemos, es fácil responder rápidamente: “Todo lo que este agente artificial hace es X .” Esta descripción reduccionista desmitifica sus operaciones y, por tanto, estamos seguros de que no es inteligente (ni creativo ni perspicaz). En otras palabras, aquellos seres o cosas cuyas operaciones internas de nivel inferior entendemos y podemos señalar e iluminar, simplemente operan de acuerdo con patrones conocidos de operaciones físicas banales. Esas entidades aparentemente inteligentes cuyas operaciones internas no entendemos son capaces de discernimiento, comprensión y creatividad. (El parecido con los humanos también ayuda; negamos más fácilmente la inteligencia a los animales que no se parecen a nosotros).

Pero ¿qué pasaría si, como Gloria, no tuviéramos tal conocimiento de lo que algún sistema, ser, objeto o extraterrestre está haciendo cuando produce sus respuestas aparentemente “inteligentes”? ¿Qué cualidades le atribuiríamos para dar sentido a lo que está haciendo? Este nivel de incomprensibilidad quizás se esté acercando rápidamente. Sea testigo de las reacciones de perplejidad de algunos desarrolladores de ChatGPT ante su comportamiento supuestamente "emergente", donde nadie parece saber exactamente cómo ChatGPT produjo las respuestas que obtuvo. Por supuesto, podríamos insistir en que “lo único que hace es (algún tipo de) pronta finalización”. Pero en realidad, también podríamos decir de los humanos: "Son sólo neuronas que se activan". Pero ni ChatGPT ni los humanos tendrían sentido para nosotros de esa manera.

La evidencia sugiere que si nos encontráramos con una entidad suficientemente complicada e interesante que parezca inteligente, pero no sepamos cómo funciona y no podamos pronunciar nuestra habitual frase desdeñosa, "Todo lo que x hace es y", comenzaríamos a usar el lenguaje de “psicología popular” para gobernar nuestras interacciones con él, para comprender por qué hace lo que hace y, lo que es más importante, para tratar de predecir su comportamiento. Por analogía histórica, cuando no sabíamos qué movía el océano y el sol, les concedimos estados mentales. (“El mar enojado cree que los acantilados son sus enemigos mortales”. O “El sol quiere ponerse rápidamente”). Una vez que supimos cómo funcionaban, gracias a nuestro creciente conocimiento de las ciencias físicas, los degradamos a objetos puramente físicos. (¡Una medida con consecuencias ambientales desastrosas!) De manera similar, una vez que perdemos el control de los aspectos internos de los sistemas de inteligencia artificial, o crecemos con ellos sin saber cómo funcionan, podríamos atribuirles también mentes. Se trata de una cuestión de decisión pragmática, no de descubrimiento. Porque esa podría ser la mejor manera de entender por qué y qué hacen.

Matt Simón

Gregorio Barbero

adrien so

caballero

Esto debería impulsarnos a mirar un poco más de cerca. Porque, pensándolo bien, ¿cómo sé que otros humanos tienen mentes como la mía? En términos generales: se parecen a mí, actúan como yo y, por eso, razona que deben tener mentes como la mía, que funcionan de la manera que creo que funciona la mía. (Esta es una inferencia completamente razonable para la mejor explicación posible de su comportamiento externo visible.) Sin embargo, nunca abrimos los cerebros de otros seres humanos para comprobar si hay mentes, porque no sabríamos qué buscar. Más concretamente, sabemos lo que veríamos: un cerebro, y no sabemos cómo funcionan. Nuestra intencionalidad, nuestra comprensión, también es misteriosa cuando se la considera en este nivel inferior de descripción. Y así, como no podemos encontrar correlatos físicos de nuestra inteligencia, e incluso si los hiciéramos, nos resultaría demasiado engorroso usarlos al tratar con humanos inteligentes, en cambio observamos cómo se comportan y actúan los seres humanos, y cómo se ajustan a las generalizaciones psicológicas. Si alguien quiere ingresar a la escuela de medicina y cree que estudiar mucho le ayudará a lograrlo, entonces podemos predecir que se lo puede encontrar en una biblioteca, estudiando con diligencia. Eso es lo que hacen los seres humanos “normales e inteligentes”. Esta es la danza interpretativa que realizamos con los humanos; El lenguaje de la psicología surge de estas interacciones. Así es como damos sentido a nuestros semejantes.

Esto significa que nuestros semejantes también son entidades cuyas entrañas complejas y poco comprendidas no nos permiten explicar, predecir y comprender sus interacciones con nosotros en términos de su composición física y propiedades (como podemos hacerlo con objetos como piedras o piedras). botellas de vidrio) o en términos de sus propiedades de diseño (como podemos hacer con los aviones o los portaminas). Debido a que debemos utilizar explicaciones psicológicas de nivel superior, la mejor manera de darle sentido al comportamiento de los seres humanos es antropomorfizarlos. Es decir, la mejor manera de darle sentido a estos otros seres distintos de mí (otros “humanos”) es tratarlos como si fueran iguales a mí. El punto crucial aquí es que no tenía que considerar a otros seres humanos como yo. Quizás podría haberlos considerado extraterrestres curiosos que se parecen a mí y actúan como yo, pero que en realidad no eran como yo en algún sentido “importante y crucial”, porque no tenía pruebas concluyentes de que tuvieran vidas internas y mentes como la mía. En lugar de ello, elegimos antropomorfizar a los humanos, porque hacerlo hace que las interacciones con ellos sean más manejables, una situación preferible a soportar una existencia solipsista, convencidos de que nuestra mente es la única que existe.

Este análisis filosófico es importante porque hay un importante acto de equilibrio que debemos realizar cuando pensamos en la regulación legal de la investigación en inteligencia artificial: queremos las ventajas técnicas y los beneficios sociales de la inteligencia artificial (como las asombrosas predicciones de las estructuras de proteínas producidas por AlphaFold). por eso queremos que sus diseñadores sigan desarrollando dichos sistemas. Pero estas empresas necesitan cobertura de responsabilidad (como la que proporcionó la Corte Suprema a los ferrocarriles en sus días incipientes); de lo contrario, los diseñadores de sistemas de inteligencia artificial se mantendrían al margen de un ámbito tan potencialmente riesgoso desde el punto de vista financiero. Pero queremos que la sociedad también esté protegida de los efectos negativos de estos programas inteligentes, especialmente si toman medidas que no se anticipan, lo que, por supuesto, también es su funcionalidad deseable.

Matt Simón

Gregorio Barbero

adrien so

caballero

Entonces, en términos legales y económicos, necesitamos asignar adecuadamente el riesgo y la responsabilidad. Una forma de hacerlo se basa en esta comprensión revisada de la inteligencia artificial. Cuando tengamos una sensación conceptual de que los agentes artificiales con los que interactuamos son agentes en el sentido psicológico (es decir, entendemos que sus acciones son causadas por sus creencias y deseos), nos permitirá considerar estos sistemas como los representantes legales (los agentes legales) de quienes los desarrollan y despliegan. De la misma manera que los hospitales emplean médicos que actúan en nombre de los hospitales, de cuyos actos el hospital es responsable, que pueden firmar contratos y tomar acciones en nombre del hospital. (Estrictamente, el sistema legal no tiene que esperar a que exista tal comprensión conceptual antes de considerar a los agentes artificiales como agentes legales, pero una aceptación social más amplia de tales regulaciones será más fácil si dicha comprensión conceptual está generalizada). entonces serían los agentes legales de sus principales legales; por ejemplo, el chatbot de Bing sería el agente legal de su principal, Microsoft. Entonces, el director es responsable de sus acciones y consecuencias (como desearíamos nosotros, el público en general), pero sólo dentro del alcance del deber que desearían sus desarrolladores e implementadores. Por ejemplo, un conductor de una empresa de transporte público es responsable de las cosas que hace en el trabajo, pero no fuera de él. Las empresas de transporte pueden contratar conductores, entonces, sabiendo que son justificadamente responsables de sus acciones en el trabajo, pero están protegidas de sus empleados cuando “se vuelven deshonestos” fuera del trabajo. De manera similar, digamos que una versión personalizada de Bing, comprada por un cliente para brindar orientación experta sobre precios, sería responsable del consejo que brinda sobre precios, pero si un cliente la usara para otra tarea, digamos asesorar sobre cómo encontrar parejas románticas adecuadas. , Microsoft ya no será responsable de los malos consejos que Bing pueda brindar. Porque tal asesoramiento estaría fuera del alcance de sus funciones propuestas. Para otro ejemplo, consideremos el caso del agente Gmail de Google, que escanea los correos electrónicos en busca de contenido que pueda utilizar para proporcionar anuncios a los usuarios de Gmail. La respuesta irrisoria de Google a la acusación de violaciones de la privacidad es que, como los humanos no escanean los correos electrónicos de los usuarios, no hay violación de la privacidad. Esta no es una defensa que Google podría emplear si su agente de Gmail fuera considerado su agente legal, porque por ley, el conocimiento adquirido por un agente legal se atribuye directamente a su principal. Por tanto, la “pantalla de automatización” de Google falla debido al estatus de agente legal de los programas que implementa. Aquí, nuestros intereses están protegidos por el estatus legal otorgado al agente artificial. Esto no disminuye nuestros derechos; más bien, los protege.

Considere lo que haríamos si extraterrestres se posaran en este planeta nuestro y dijeran: "¡Llévanos ante tu líder!". ¿Cómo los entenderíamos y describiríamos? ¿Qué pasaría si sus entrañas fueran tan misteriosas que nuestra mejor ciencia no nos permitiera saber cómo funcionan? Tendríamos que funcionar como antropólogos de campo diligentes, buscando evidencia conductual que podamos correlacionar con sus pronunciamientos, y comenzar a considerar la posibilidad de que tengan mentes como la nuestra. Nuestros abogados tendrían que evaluar el estatus de estos seres en nuestros ordenamientos sociales y, al ver que ocuparon y desempeñaron importantes roles ejecutivos, que la gente había formado relaciones personales con ellos, tal vez pensar en evaluar seriamente su solicitud de ciudadanía y estatus legal. Hoy existe una situación análoga con respecto a los agentes y programas artificiales entre nosotros, con una diferencia crucial: nosotros los hemos creado y diseñado. Esta familiaridad está teñida de desprecio, pero la naturaleza de nuestra danza interpretativa con ellos puede cambiar y cambiará, dependiendo de cuán misteriosos los encontremos. Cuanto más impenetrables se vuelven en términos de sus operaciones internas, cuanto más sofisticado es su funcionamiento, más tendremos que depender de descripciones externas utilizando términos psicológicos como "agente". Esto no sería una concesión a nada más que al sentido común. Y nuestra inteligencia natural.