viernes, 15 de diciembre de 2017

“Superinteligencia”, 2014. Nick Bostrom

  Hablar de “superinteligencia” no es ninguna broma. Si la humanidad tiene algún futuro, este pasa por la superinteligencia.

Por inteligencia queremos decir aquí algo como habilidad en la predicción, planificación y razonamiento con un fin en general. (…) Superinteligencia (…) [sería] cualquier intelecto que en gran medida excede el desempeño cognitivo de los humanos en virtualmente cualquier ámbito de interés

  Y todo indica que en los siglos y quizá incluso en las décadas por venir van a llegar nuevos agentes intelectuales que alcanzarán este nivel. Su origen será nuestra propia inteligencia, evolucionada y acrecentada. El filósofo Nick Bostrom aborda el peligro de que esto suceda (un peligro para el que ya nos han prevenido algunas historias de ciencia-ficción, más o menos ingeniosas) y al hacerlo nos señala también la trascendencia de estos cambios que quizá no sean para mañana ni para pasado mañana, pero que son sin duda nuestro futuro inevitable.

En este libro intento comprender el reto que presenta la prospectiva de la superinteligencia, y cómo podría responderse a ella. Éste es muy posiblemente el desafío más importante y aterrador que la humanidad ha enfrentado. Y -tanto si tenemos éxito como si fracasamos- es probablemente el último reto que enfrentaremos

El problema del control –el problema de cómo controlar lo que hiciera una superinteligencia- parece bastante difícil. También parece que solo tendríamos una oportunidad. Una vez existiera una superinteligencia hostil nos impediría reemplazarla o cambiar sus preferencias. Nuestro destino quedaría sellado

  La superinteligencia será sin duda el fruto del avance tecnológico, pero existen diversas opciones en cuanto al tipo de tecnología. La más conocida y obvia es la inteligencia artificial a partir de los computadores, pero no es la única.

Otro camino concebible a la superinteligencia [aparte del desarrollo de los computadores] es a través de la gradual ampliación de redes y organizaciones que vinculen mentes humanas individuales unas con otras y con varios artefactos y dispositivos. No es que esto ampliaría la capacidad intelectual de los individuos lo bastante para hacerlos superinteligentes, sino más bien que algún sistema compuesto de individuos así conectados y organizados podría alcanzar una forma de superinteligencia

    En cuanto a conseguir individuos superinteligentes, aparte de los computadores, también puede tratarse de las consecuencias del uso de formas evolucionadas de eugenesia, tratamientos médicos para la mejora de las funciones cognitivas o una combinación de avances biológicos y tecnológicos.

  Hacia la década de 1960 se consideraba que la superinteligencia estaba cerca a medida que se mejoraba la capacidad de los computadores. Poco después se descubrió que la cuestión no es tanto el mero incremento de la memoria.

Las dificultades técnicas para construir máquinas inteligentes han resultado ser mayores de lo que los pioneros previeron

  Ahora no resulta tan difícil comprender por qué resultó así:

Para probar un teorema que tiene una prueba de 5 líneas de largo en un sistema de deducción con una regla de inferencia y cinco axiomas, uno podría simplemente enumerar las 3125 combinaciones posibles y probar cada una de ellas para ver si da lugar a la conclusión buscada. La investigación exhaustiva también funcionaría con pruebas de 6 a 7 líneas. Pero cuando la tarea se hace más difícil, el método de búsqueda exhaustiva pronto se ve en problemas. Probar un teorema con una prueba de 50 líneas no es diez veces más largo que probar un teorema con una prueba de 5 líneas: más bien, si uno recurre a la búsqueda exhaustiva, se requiere combinar 550 ˜ 8.9 × 1034  posibles secuencias –lo cual es computacionalmente inviable incluso con  el supercomputador más rápido (…) Para superar la explosion combinatorial uno necesita algoritmos que exploten la estructura en el ámbito del objetivo y que se aprovechen de previos conocimientos mediante el uso de búsqueda heurística [reglas o patrones], planificación y representaciones abstractas flexibles –capacidades que se desarrollaron poco en los primeros sistemas de inteligencia artificial

  Esto en cierto modo supone un alivio: aún nos queda tiempo, pero la superinteligencia llegará de todas formas. ¿Qué haremos entonces?, ¿cómo afrontaremos ese futuro que nos aparece incluso bastante aterrador? Una superinteligencia puede hacer prácticamente cualquier cosa. Desde nuestra limitada capacidad puede parecer omnipotente y omnisciente, de modo que está claro que, si bien Dios no creó al ser humano, sí que parece inevitable que el ser humano cree a cierto tipo de dioses.

  ¿Cómo podríamos asegurarnos de que las motivaciones de esta… entidad… no fuera en contra de los intereses humanos? Bostrom especula con algunas posibilidades.

Predictibilidad por el diseño. Podemos suponer que los diseñadores de un agente superinteligente pueden crear de forma exitosa el sistema de fines del agente de modo que siga un conjunto de metas establecido por los programadores (…) Predictibilidad por la herencia. Si una inteligencia digital es creada directamente a partir de un patrón humano (como sería el caso de una fiel emulación del cerebro), entonces la inteligencia digital podría heredar las motivaciones humanas (…) Predictibilidad por razones instrumentales convergentes. Incluso sin el detallado conocimiento de los fines de un agente, podríamos ser capaces de inferir algo sobre sus objetivos más inmediatos al considerar las razones instrumentales que aparecerían en cualquiera de los fines posibles en un amplio espectro de situaciones

    En el caso de las razones instrumentales convergentes, contaríamos con la ayuda de que nos sería más fácil comprender las metas intermedias y deducir a partir de ellas la meta final. Podemos comparar la situación a la de una inteligencia extraterrestre que quisiera averiguar cuáles son las motivaciones humanas a partir del estudio de las motivaciones de los animales más simples de los que hemos evolucionado… lo que viene a ser lo mismo que hace hoy la psicología evolutiva.

  Por otra parte, nos encontramos ante un problema filosófico de calado. ¿Sabemos siquiera cuáles son nuestras verdaderas motivaciones? ¿Y si la superinteligencia se encargara de averiguarlo?

Supongamos que pudiéramos instalar cualquier valor final arbitrario en una Inteligencia Artificial. La decisión sobre cuál valor instalar podría tener entonces las consecuencias más importantes a largo plazo (…) Estúpidos, ignorantes y de mente estrecha como somos, ¿cómo podríamos confiar en tomar buenas decisiones de diseño? ¿Cómo podríamos elegir sin con ello encerrarnos para siempre en los prejuicios y preconcepciones de la presente generación? (…) Podríamos estar equivocados en cuanto a moralidad; equivocados en cuanto a qué es bueno para nosotros; equivocados incluso sobre lo que realmente queremos

La normatividad indirecta es una forma de responder al desafío presentado por el hecho de que podemos no saber realmente lo que queremos, lo que es en nuestro interés o lo que es moralmente correcto o ideal. En lugar de hacer una conjetura basada en nuestra comprensión actual (que probablemente estará profundamente errada) delegaríamos parte del trabajo cognitivo que requiere la selección de valores a la superinteligencia. Ya que la superinteligencia es mejor en el trabajo cognitivo de lo que somos nosotros, podría ver más allá de los errores y confusiones que nublan nuestro pensamiento

  Sería, además, una forma de resolver muchos de los problemas que trata esa disciplina filosófica llamada ética.

En ética, las teorías del observador ideal buscan analizar conceptos normativos como “bueno” o “correcto” en términos de los juicios que un observador ideal hipotético haría (donde un “observador ideal” se define como aquel que es omnisciente sobre hechos no-morales, es lógicamente de visión clara, es imparcial de forma relevante y libre de varias clases de sesgos, etcétera)

  Por otra parte, para los lectores de buenas historias de ciencia-ficción, resultará familiar que las motivaciones y metas humanas podrían dar lugar a terribles equívocos cuando pretendan trasladarse a una mente no humana, lo que en este libro se llama la “instanciación perversa”

Meta final: “haznos sonreír”. Instanciación perversa: “paraliza la musculatura facial humana en la mueca de una sonrisa constante” (…) Meta final: “haznos felices”. Instanciación perversa: “Implanta electrodos en los centros de placer del cerebro”

  Conservadoramente, lo mejor sería que la superinteligencia fuese meramente informativa. Una especie de “oráculo”: nos da verbalmente la respuesta a los problemas que le planteamos y eso es todo.

Si bien hacer que un oráculo sea seguro mediante el uso de la selección de motivación podría no ser nada trivial, puede sin embargo ser más fácil que hacer lo mismo con una Inteligencia Artificial que deambula por el mundo en busca de alguna meta complicada. Este es un argumento para preferir que la primera superinteligencia sea un oráculo.

  Queda añadir la sugerencia de que quizá hoy ya poseamos suficientes elementos de juicio que nos permitan definir una motivación humana deseable total y racional, el tipo de motivación dirigida a una finalidad coherente.  Estas motivaciones pueden también sugerirnos soluciones al problema humano mejores incluso que las de la superinteligencia, y al servicio de las cuales podría quedar la misma superinteligencia: los medios que lleven al desarrollo de comunidades humanas de extrema confianza.

    Puesto que la esencia de la peculiaridad humana es el desarrollo de relaciones sociales que permitan llevar a cabo proyectos de cooperación de alcance y flexibilidad muy superiores a los de los demás animales (sociedades complejas, empresas económicas, expresión del lenguaje, desarrollo tecnológico), la meta propiamente humana habría de ser refinar esta peculiaridad hasta sus mayores consecuencias de socialidad: una comunidad planetaria plenamente cooperativa.  Pero la plena cooperación solo es posible si los individuos actúan de forma tan altruista como inteligente a fin de evitar el constante conflicto entre intereses particulares. Y el desarrollo del altruismo solo es posible si se desarrollan estrategias individuales interiorizadas de modo que operen de forma parecida a un “instinto artificial” (el deseo de ser altruista por la satisfacción moral de serlo).  El gran inconveniente de un comportamiento altruista es que éste sea autodestructivo por tolerarse el abuso de los altruistas por parte de quienes no lo son, y el mejor recurso social para defendernos de ese problema es el desarrollo correspondiente de la habilidad para reconocer en otros y expresar en uno mismo una predisposición convincente de actuación altruista de forma que los altruistas pudieran actuar de forma coordinada y prevenirse de los abusos.

   El desarrollo moral y por tanto civilizatorio debe consistir en desarrollar tales técnicas para fomentar el altruismo y la capacidad para detectar y promover las actitudes altruistas tanto como detectar y desalentar las actitudes egoístas. Y esto podría comprenderlo y ejecutarlo una superinteligencia –inevitablemente bondadosa, por tanto- mucho mejor que una inteligencia humana convencional, siempre lastrada por prejuicios de rancia tradición en los cuales el altruismo se concibe como una actuación excepcional, tradicional e instintivamente circunscrita a las relaciones entre parientes. Romper con la tradición del altruismo limitado al entorno familiar y en lugar de eso expandirlo al ámbito universal exige la elaboración de complejas estrategias de psicología social… que han sido siempre el núcleo central de la evolución cultural en el sentido civilizatorio y moral (por ejemplo, en la creación de “valores” y en diversas mitologías religiosas).

    Una superinteligencia también puede promover estas reglas de promoción del altruismo en un sentido universal y salvaguardar las estrategias de promoción del altruismo utilizando los conocimientos y la tecnología aplicados a la psicología. Y a la vez, una humanidad altruista puede hacer uso de la superinteligencia de forma mucho menos peligrosa de lo que lo haría una humanidad convencional.

  Aunque, naturalmente, si dejamos el asunto de la promoción del altruismo en manos de la Inteligencia Artificial siempre correríamos el riesgo de una “instanciación perversa”, pero parece probable que un oráculo superinteligente también podría darnos buenos consejos al respecto…

No hay comentarios:

Publicar un comentario