por John Brockman

28 Enero 2019

del Sitio Web EDGE

traducción de Chitauri

30 Enero 2019

del Sitio Web Chitauri

Versión original en ingles

 

 

 

 

 

 

Veo muchos malentendidos en las discusiones actuales sobre la naturaleza de la mente, como la suposición de que si creamos una inteligencia artificial sofisticada, inevitablemente será consciente.

 

También existe la idea de que deberíamos "fusionarnos con la IA", que para que los humanos puedan mantenerse al día con los desarrollos en la IA y no sucumbir a las IAs superinteligentes hostiles o el desempleo tecnológico basado en la IA, debemos mejorar nuestros propios cerebros con la tecnología de la IA. .

Una cosa que me preocupa de todo esto es que no creo que las empresas de inteligencia artificial deban resolver problemas relacionados con la forma de la mente.

 

El futuro de la mente debe ser una decisión cultural y una decisión individual. Muchas de las cuestiones en juego aquí involucran problemas filosóficos clásicos que no tienen soluciones fáciles.

 

Estoy pensando, por ejemplo, en teorías de la naturaleza de la persona en el campo de la metafísica.

 

Supongamos que agrega un microchip para mejorar su memoria de trabajo, y años después agrega otro para integrarse con Internet y continúa agregando mejora después de la mejora.

 

¿En qué punto serás tú?

 

Cuando piensas en mejorar el cerebro, la idea es mejorar tu vida, hacerte más inteligente o más feliz, tal vez incluso vivir más tiempo, o tener un cerebro más agudo a medida que envejeces, pero ¿qué pasa si esas mejoras nos cambian de forma tan drástica?

 

¿De que ya no somos la misma persona?

 

 

Una conversación

con Susan Schneider...

 




EL FUTURO DE LA MENTE - Susan Schneider
 

Pienso en la naturaleza fundamental de la mente y la naturaleza del yo.

 

Últimamente, he estado pensando en estos temas en relación con las tecnologías emergentes. En particular, he estado pensando en el futuro de la mente y en cómo la tecnología de la IA podría reformar la mente humana y crear mentes sintéticas.

 

A medida que la IA (Inteligencia Artificial) se hace más sofisticada, una cosa en la que he estado muy interesada es en si los seres que podríamos crear podrían tener experiencias conscientes.

Cuando ves los ricos matices de una puesta de sol o cuando hueles el aroma de tu café matutino, estás teniendo una experiencia consciente.

 

La experiencia consciente es muy familiar para ti. De hecho, no hay un momento de tu vida en el que no seas un ser consciente.

Si tenemos inteligencia general artificial, inteligencia capaz de conectar flexiblemente ideas a través de diferentes ámbitos y tal vez lográsemos tener una experiencia sensorial, querría saber si sería consciente o simplemente computar en la oscuridad, comprometiéndose en cosas como las tareas de reconocimiento visual desde una perspectiva computacional, pero no siendo verdaderamente consciente.

A diferencia de muchos filósofos, de muchas personas que están en los medios de comunicación y de los transhumanistas, tiendo a tomar un enfoque de "esperar y ver" sobre la conciencia de la máquina.

 

Por un lado, rechazo una línea totalmente escéptica. Ha habido filósofos conocidos en el pasado que han sido escépticos sobre la posibilidad de la conciencia de la máquina - por ejemplo, el filósofo John Searle - pero creo que es demasiado pronto para saberlo.

 

Hay muchas variables que determinan si habrá máquinas conscientes.

Por otra parte, tenemos que preguntarnos si es compatible con las leyes de la naturaleza crear máquinas que sean conscientes.

 

Simplemente no sabemos si la conciencia puede ser algo que se implementa en otros sustratos. No sabemos cuáles serán los microchips más rápidos, así que no sabemos de qué estaría hecha una inteligencia general artificial.

 

Así que, hasta ese momento, es difícil para nosotros decir que algo que es altamente inteligente es o no consciente.

Probablemente lo más seguro en este momento es abrir una brecha conceptual entre la idea de la inteligencia sofisticada, por un lado, y la conciencia, por otro. Lo que necesitamos es mantener una mente abierta y sospechar que puede ser, por lo que sabemos actualmente, que las inteligencias más sofisticadas no serán conscientes.

 

Hay muchos hechos que determinarán si las máquinas conscientes son posibles.

 

Supongamos por un minuto que es posible, al menos en principio, construir una inteligencia artificial consciente. ¿Quién querría hacerlo? Piensen en los debates que están teniendo lugar ahora mismo sobre los derechos de los androides, por ejemplo.

Supongamos que todos esos androides japoneses que están siendo diseñados para cuidar de los hogares de las personas y cuidar de los ancianos resultan ser conscientes.

  • ¿No habría preocupación por forzar a las criaturas a trabajar para otros cuando son seres conscientes?

     

  • ¿No sería eso similar a la esclavitud?

No estoy tan seguro de que a las empresas de inteligencia artificial les convenga producir seres conscientes.

 

De hecho, pueden decidir hacer ingeniería para eliminar la conciencia. Por supuesto, no sabemos si la conciencia puede ser diseñada dentro o fuera de una máquina.

 

Por lo que sabemos ahora mismo, puede que no sea compatible con las leyes de la naturaleza producirlo.

 

Por el contrario, podría ser un subproducto inevitable del cálculo sofisticado, y entonces tendremos que estar muy preocupados por los derechos de los androides y otros IAs.

Si las máquinas resultan ser conscientes, no sólo aprenderemos sobre las mentes de las máquinas, sino también sobre nuestras propias mentes. Podríamos aprender más sobre la naturaleza de la experiencia consciente, lo que podría llevarnos a reflexionar como cultura sobre lo que es ser un ser consciente.

 

Los humanos ya no serían especiales en el sentido de ser capaces de pensar intelectualmente. Estaríamos compartiendo esa posición con seres sintéticos que ni siquiera están hechos de las mismos materiales que nosotros.

A medida que las civilizaciones se vuelven más inteligentes, pueden llegar a ser post-biológicas.

 

Por lo tanto, la inteligencia sintética podría resultar ser una consecuencia natural de las civilizaciones tecnológicas exitosas. En un tiempo relativamente corto, hemos logrado crear inteligencias artificiales interesantes y sofisticadas.

 

Ahora estamos volviendo la inteligencia artificial hacia adentro en términos de construir prótesis neuronales para mejorar el cerebro humano.

 

Ya vemos a gurús de la tecnología como Ray Kurzweil y Elon Musk hablando de mejorar la inteligencia humana con chips cerebrales, no sólo para ayudar a las personas con trastornos cerebrales, sino también para ayudar a las personas a vivir más tiempo y a ser más inteligentes.

 

Puede ser el caso que las civilizaciones a través del universo se volviesen post-biológicas y mejoraron su inteligencia para convertirse en seres sintéticos ellos mismos.
 

 

***

 


Comencé mi vida académica como economista y luego tropecé en una clase con Donald Davidson, el eminente filósofo.

 

Descubrí que me gustaba la filosofía angloamericana y me puse a trabajar con Jerry Fodor, un famoso filósofo de la mente que era un crítico de las ideas que ahora han dado lugar al deep learning.

Fodor y yo pasábamos horas discutiendo sobre el alcance y los límites de la inteligencia artificial. No estaba de acuerdo con él sobre sus puntos de vista acerca del deep learning.

 

Fodor afirmaba que el cerebro no es computacional, y que la inteligencia artificial probablemente no tendría éxito cuando llegase al nivel de la inteligencia artificial general porque había alguna característica especial sobre la mente humana que no es computacional.

 

Es decir, se refería a lo que él llamaba "los sistemas centrales", las áreas del cerebro que van más allá de las funciones mentales altamente compartimentadas, aquello que da lugar a la creatividad y cognición humanas.

Argumenté que el cerebro era computacional hasta la médula.

 

Mientras trabajaba con Fodor, leí mucho acerca de la neurociencia computacional.

 

Insistí en que el cerebro puede ser un sistema híbrido que podría describirse en términos del enfoque de red neuronal que se ve en la neurociencia computacional, pero en el que estas descripciones de nivel superior que se ven en la psicología cognitiva hacen referencia al formato del pensamiento al que personas como Jerry Fodor apelan:

el lenguaje del pensamiento, que sostiene que el cerebro es un dispositivo de procesamiento de símbolos que manipula los símbolos de acuerdo con las reglas.

Hubiera sido divertido hablar con Fodor sobre sistemas de aprendizaje profundo.

 

Me imagino que todavía sería bastante escéptico sobre la posibilidad de que estos sistemas se desarrollen más allá de lo que algunas personas llaman inteligencia general artificial.

 

No estoy sugiriendo en absoluto que los recursos actuales puedan dar lugar a algo tan sofisticado.

 

Sin embargo, creo que con todo el dinero que se invierte en inteligencia artificial, con la velocidad de la computación mejorando año tras año, encontrando microchips cada vez mejores y más rápidos, la posibilidad de que la computación quántica se desarrolle de una manera seria, nos encamina hacia una inteligencia artificial que progresivamente mejore.

Viendo el éxito de Deep Mind empecé a ser más optimista acerca de la creación de una IA más sofisticada.

 

No sólo crearemos robots inteligentes, sino que también nos meteremos a la IA en la cabeza y cambiaremos la mente humana. Entonces empecé a preocuparme de cómo esto podría transformar la sociedad.

Veo muchos malentendidos en las discusiones actuales sobre la naturaleza de la mente, como la suposición de que si creamos una IA sofisticada, inevitablemente será consciente.

 

También existe la idea de que deberíamos "fusionarnos con la IA", es decir, que para que los seres humanos puedan seguir el desarrollo de la IA y no sucumbir a la hostilidad de las IA superinteligentes o al desempleo tecnológico basado en la IA, necesitaremos mejorar nuestros propios cerebros con la tecnología de la IA.

Una cosa que me preocupa de todo esto es que no creo que las compañías dedicadas al desarrollo de las IAs deban resolver asuntos relacionados con la naturaleza de la mente. El futuro de la mente debe ser una decisión cultural y una decisión individual.

 

Muchos de los temas en juego aquí involucran problemas filosóficos clásicos que no tienen soluciones fáciles.

 

Pienso, por ejemplo, en teorías sobre la naturaleza del yo en el campo de la metafísica. Supón que insertas un microchip para mejorar tu memoria, y luego años después agregas otro microchip para integrarte con Internet, y sigues añadiendo mejoras.

 

¿En qué momento serás tú...?

 

Cuando piensas en mejorar el cerebro, la idea es mejorar tu vida para hacerte más inteligente, o más feliz, tal vez incluso para vivir más tiempo, o tener un cerebro más agudo a medida que envejeces, pero,

¿qué pasa si esas mejoras nos cambian de manera tan drástica que ya no somos la misma persona?

 

 


Estos son temas en los que filósofos como Hume, Locke, Nietzsche y Parfit han estado pensando durante años en el contexto de los debates sobre la naturaleza de la mente.

 

Ahora que tenemos la oportunidad de esculpir nuestras propias mentes, creo que necesitamos dialogar con estas posiciones filosóficas clásicas sobre la naturaleza del yo.

Estoy preocupada por la obsesión con la tecnología.

 

Me considero una tecno-progresista en el sentido de que quiero que la tecnología se utilice para mejorar las vidas humanas, pero debemos tener cuidado con la aceptación inquebrantable de esta idea de fusionarnos con IAs o incluso tener una Internet de las cosas a nuestro alrededor en todo momento.

Lo que tenemos que hacer ahora que se están desarrollando estas tecnologías de mejora neuronal es mantener un diálogo público sobre esto.

 

Es necesario que participen todas las partes interesadas, desde las personas que investigan estas tecnologías hasta los políticos, pasando por los ciudadanos de a pie, especialmente los jóvenes, para que, a medida que tomen decisiones sobre la mejora del cerebro, puedan hacerlo con mayor escrutinio.

 

Aquí entran en juego las cuestiones filosóficas clásicas sobre la naturaleza del yo y la naturaleza de la conciencia.

Los consejos de ética de la IA en las compañías más grandes son importantes, pero en cierto modo, es el zorro el que cuida el gallinero.

 

La única manera de que tengamos un futuro positivo en lo que respecta al uso de las tecnologías de IA para crear mentes sintéticas y mejorar la mente humana es acercar estos temas directamente al público, razón por la cual me importa mucho la participación pública y asegurarme de que todas las partes interesadas estén involucradas.
 

 

****

 


¿Cómo podemos saber si una máquina es consciente?

 

He sugerido que no podemos asumir que la inteligencia artificial sofisticada será consciente. Además, puede ser que la conciencia sólo se desarrolle en ciertos programas de IA o con ciertos sustratos, ciertos tipos de microchips y no otros.

 

Por lo que sabemos ahora mismo, tal vez los sistemas basados en el silicio pueden ser conscientes, pero los sistemas que utilizan nanotubos de carbono no puedan.

 

Simplemente no lo sabemos. Es una pregunta empírica. Por lo tanto, sería útil hacerse pruebas.

La parte difícil es que incluso hoy en día no podemos decir exactamente qué están haciendo los sistemas de aprendizaje profundo.

 

El problema de la caja negra de la IA versa sobre cómo podemos saber cuáles son los cálculos en los sistemas de aprendizaje profundo.

En lugar de mirar bajo el capó la arquitectura de la IA, la manera más productiva de determinar la conciencia en las máquinas es doble. Lo primero que hay que hacer es una prueba basada en el comportamiento, que he desarrollado en el Instituto de Estudios Avanzados con el astrofísico, Edwin Turner.

 

Es una prueba simple. Un hecho de que somos seres conscientes es que podemos entender los experimentos de pensamiento que involucran a la mente.

 

Puede que hayas visto la película Freaky Friday, sobre una madre y su hija que intercambiaban sus cuerpos.

 

¿Porqué tenía sentido para nosotros...?

 

Tenía sentido para nosotros porque podemos imaginar que la mente abandona el cuerpo. Ahora, no estoy diciendo que la mente abandona el cuerpo, pero podemos visualizar situaciones, al menos a grandes rasgos, que involucran,

Lo que tenemos que hacer entonces es buscar IAs que sean capaces de imaginar este tipo de situaciones.

 

Hay una objeción a esto ya que podemos programar una IA para que actúe como si fuera consciente. Ya hoy en día hay IAs que te hablarán y actuarán como si estuvieran teniendo una vida mental.

 

Considere a 'Sophia' de Hanson Robotics.

 

Ella habla contigo, y la prensa incluso habla de ella como si fuera un ser consciente. Incluso le ofrecieron la ciudadanía en Arabia Saudita, lo que es interesante.

Si no le das a la inteligencia artificial conocimiento sobre la neurociencia y la conciencia humana y ves comportamientos anómalos cuando la examinas para experimentarla conscientemente, hazle experimentos de pensamiento y mira cómo reacciona.

 

Pregúntale simplemente:

"¿Te imaginas existir más allá de la destrucción de tus partes?"

Turner y yo hemos escrito varias preguntas, una especie de prueba de Turing para la conciencia de la máquina, diseñada para provocar comportamientos en las máquinas con la finalidad de asegurarnos de que no obtengamos falsos positivos.

 

Dicho esto, no creo que la prueba sea la única manera de acercarse a la conciencia de la máquina.

 

Es lo que los filósofos llaman una "condición suficiente" para la conciencia de la máquina. Así que si la pasa tenemos razones para creer que es consciente.

 

Pero si algo falla, otras pruebas podrían determinar que, a pesar de todo, sigue siendo consciente.

Permítanme hablar sobre la segunda forma de determinar si las máquinas pueden ser conscientes, porque se trata de un camino sensato dado el desarrollo actual de los chips cerebrales.

 

A medida que usamos neuro-prótesis o chips cerebrales en partes del cerebro que subyacen a la experiencia consciente en los seres humanos, si esos chips tienen éxito y si no observamos déficits de conciencia, entonces tenemos razones para creer que ese microchip hecho de un material en particular, digamos, silicio, podría respaldar la conciencia cuando se encuentra en el entorno arquitectónico correcto.

Eso sería importante si determináramos que otro material, cuando se pone en el cerebro humano, no cambiaría la calidad de nuestra experiencia consciente cuando está en las áreas del cerebro que creemos que son responsables de la conciencia.

 

Eso significaría que, en principio, tal vez podríamos desarrollar una conciencia sintética. Incluso podríamos hacerlo simplemente reemplazando gradualmente el cerebro humano por componentes artificiales hasta que al final del día tengamos un ser que sea una IA completa.

Me encanta la intersección entre filosofía y ciencia, o la parte donde la ciencia se vuelve turbia y uno tiene que pensar en las implicaciones.

 

Ejemplos de esto serían las teorías de la emergencia del espacio-tiempo en la física, donde se formulan teorías matemáticas y luego se sacan conclusiones sobre la naturaleza del tiempo.

 

Cuestiones como ésta implican un delicado equilibrio entre las consideraciones matemáticas o empíricas y las cuestiones filosóficas.

 

Ahí es donde me gusta intervenir e involucrarme...

Estoy interesada en el alcance y límite de lo que podemos conocer como humanos. Puede ser que a medida que mejoremos nuestros cerebros, encontremos respuestas a algunos de estos problemas filosóficos clásicos. ¿Quién sabe...?

 

Por ahora, si desarrollamos la tecnología de la inteligencia artificial sin pensar cuidadosamente en temas relacionados con la naturaleza de la conciencia o la naturaleza del ser, veremos que las tecnologías de la inteligencia artificial pueden no hacer lo que la gente que las desarrolla pretende que hagan, que es mejorar nuestras vidas y promover el florecimiento humano.

Tenemos que tener cuidado de saber si estamos creando seres conscientes y sabremos si mejorar radicalmente nuestros cerebros es compatible con la supervivencia de la persona, de lo contrario estas tecnologías conducirán a la explotación y el sufrimiento de los seres conscientes en lugar de mejorar la vida de las personas.

Me gusta vivir en ese espacio de humildad donde chocamos con un muro epistemológico porque nos enseña los límites de lo que los humanos pueden entender.

 

A veces es importante recordar en estos tiempos de innovaciones tecnológicas, que siempre habrá cuestiones a las que no podemos dar respuestas definitivas.

 

Un buen ejemplo de esto es la pregunta de si somos cerebros en cubetas, viviendo nuestras vidas dentro de simulaciones por computadora.

 

Se trata de cuestiones epistemológicas, cuestiones relacionadas con la naturaleza del conocimiento que no tienen respuestas fáciles.