He aquí por qué los científicos creen que debería estar preocupado por la inteligencia artificial

En los últimos meses, es posible que haya leído la cobertura que rodea un artículo, co-escrito por Stephen Hawking, la discusión de los riesgos asociados con la inteligencia artificial. El artículo sugiere que la IA puede representar un grave riesgo para la raza humana. Hawking no está solo allí - Elon Musk y Peter Thiel son ambas figuras públicas intelectuales que han expresado preocupaciones similares (Thiel ha invertido más de $ 1.3 millones de investigar el problema y las posibles soluciones).

La cobertura del artículo de Hawking y los comentarios de almizcle haber sido, de no poner un punto demasiado fino en él, un poco alegre. El tono ha sido mucho ‘a ver esa cosa rara de todos estos frikis están preocupados.` Se presta poca atención a la idea de que si algunas de las personas más inteligentes de la Tierra que están advirtiendo que algo podría ser muy peligroso, que sólo podría ser digno de ser escuchado.

Esto es comprensible - la inteligencia artificial tomar el mundo ciertamente suena muy extraño e inverosímil, tal vez debido a la enorme atención ya dado a esta idea por los escritores de ciencia ficción. Por lo tanto, lo que tiene todas estas personas racionales, nominalmente sanos por lo asustado?

¿Qué es la inteligencia?

Con el fin de hablar sobre el peligro de la Inteligencia Artificial, que podría ser útil para entender qué es la inteligencia. Con el fin de comprender mejor el problema, vamos a echar un vistazo a una arquitectura IA juguete usado por los investigadores que estudian la teoría del razonamiento. Este juguete AI se llama Aixi, y tiene un número de propiedades útiles. Es metas pueden ser arbitrarios, que escala bien con potencia de cálculo, y su diseño interior es muy limpio y sencillo.

Por otra parte, se puede implementar versiones simples y prácticas de la arquitectura que puede hacer cosas como un juego de Pacman, si lo desea. Aixi es el producto de un investigador de AI llamado Marcus Hutter, posiblemente el mayor experto en la inteligencia algorítmica. Eso es lo que habla en el vídeo de arriba.

Aixi es sorprendentemente simple: que tiene tres componentes básicos: aprendiz, planificador, y función de utilidad.

  • los aprendiz toma en cadenas de bits que corresponden a la entrada sobre el mundo exterior, y busca a través de programas de ordenador hasta que encuentre las que producen sus observaciones como salida. Estos programas, en conjunto, permiten que se hacen conjeturas sobre lo que el futuro se verá así, simplemente mediante la ejecución de cada programa hacia adelante y la ponderación de la probabilidad de que el resultado por la duración del programa (una implementación de la navaja de Occam).
  • los planificador busca a través de posibles acciones que el agente podría tomar, y utiliza el módulo de alumno a predecir lo que sucedería si se tomó cada uno de ellos. A continuación, los clasifica de acuerdo con lo bueno o malo los resultados previstos son, y elige el curso de acción que maximiza la bondad del resultado esperado multiplicado por la probabilidad esperada de lograrlo.
  • El último módulo, el función de utilidad, es un programa simple que toma en la descripción de un estado futuro del mundo, y calcula una puntuación de utilidad para ello. Esta puntuación utilidad es lo bueno o malo que es el resultado, y es utilizada por el planificador para evaluar estado futuro del mundo. La función de utilidad puede ser arbitraria.
  • Tomados en conjunto, estos tres componentes forman una optimizador, que optimiza para un objetivo en particular, independientemente de que el mundo se encuentra en.

Este sencillo modelo representa una definición básica de un agente inteligente. El agente estudia su entorno, construye modelos de la misma, y ​​luego usa esos modelos para encontrar el curso de acción que va a maximizar las probabilidades de que para conseguir lo que quiere. Aixi es similar en estructura a una IA que juega al ajedrez, u otros juegos con reglas conocidas - excepto que es capaz de deducir las reglas del juego, jugando, comenzando a partir del conocimiento cero.

Aixi, dado el tiempo suficiente para calcular, puede aprender a optimizar cualquier sistema para cualquier objetivo, por compleja. Es un algoritmo general inteligente. Tenga en cuenta que esto no es lo mismo que tener la inteligencia humana (biológicamente inspirados AI es una tema totalmente diferente). En otras palabras, Aixi puede ser capaz de burlar a cualquier ser humano en cualquier tarea intelectual (da suficiente potencia de cálculo), pero puede que no sea consciente de su victoria.Giovanni Idili de OpenWorm: Cerebros, gusanos, e Inteligencia ArtificialGiovanni Idili de OpenWorm: Cerebros, gusanos, e Inteligencia ArtificialSimulación de un cerebro humano es un largo camino fuera, pero un proyecto de código abierto está tomando los primeros pasos vitales, mediante la simulación de la neurología y la fisiología de uno de los animales más simples conocidos por la ciencia. Lee mas

headsculpture

Como AI práctica, Aixi tiene un montón de problemas. En primer lugar, no tiene manera de encontrar esos programas que producen la salida que le interesa. Es un algoritmo de fuerza bruta, lo que significa que no es práctico si no sucede que tiene un equipo potente arbitrariamente por ahí. Cualquier aplicación efectiva de Aixi es por necesidad una aproximación, y (hoy) por lo general una bastante crudo. Aún así, Aixi nos da una idea teórica de lo que es una poderosa inteligencia artificial podría ser similar, y cómo podría razonar.

El espacio de los Valores

Si usted ha hecho alguna programación informática, usted sabe que las computadoras son desagradablemente, pedante, y mecánicamente literal. La máquina no sabe ni le importa lo que usted quiere que haga: lo hace sólo lo que se ha dicho. Este es un concepto importante cuando se habla de la inteligencia artificial.Los fundamentos de Programación de Computadoras 101 - Variables y tipos de datosLos fundamentos de Programación de Computadoras 101 - Variables y tipos de datosDespués de haber introducido y habló un poco sobre programación orientada a objetos antes y donde su homónimo viene, pensé que es hora de ir a través de los fundamentos absolutos de la programación de una manera no específica del idioma. Esta...Lee mas

Con esto en mente, imagine que ha inventado una poderosa inteligencia artificial - que he llegado con algoritmos inteligentes para generar hipótesis que coinciden con sus datos, y para generar planes buenos candidatos. Su IA puede resolver problemas generales, y puede hacerlo de manera eficiente en el hardware de la computadora moderna.

Ahora es el momento de escoger una función de utilidad, lo que determinará cuáles son los valores de IA. ¿Qué debe solicitar a valorar? Recuerde, la máquina va a ser desagradable, pedante literal sobre cualquier función le pida que maximizar, y nunca se detendrá - no hay ningún fantasma en la máquina que nunca se `despertará` y decidir cambiar su función de utilidad, independientemente del número de mejoras en la eficiencia que hace a su propio razonamiento.

Eliezer Yudkowsky puso de esta manera:

Al igual que en todos los programas de ordenador, el reto fundamental y la dificultad esencial de AGI es que si se escribe un código incorrecto, la IA no se verá automáticamente a través de nuestro código, marcar los errores, averiguar lo que realmente queríamos decir, y hacer eso en lugar. No programadores a veces imaginan una AGI, o programas de ordenador en general, como análogo a un sirviente que sigue las órdenes sin cuestionarlas. Pero no es que la IA es absolutamente obediente a su vez código-, la IA simplemente es el código.

Si usted está tratando de operar una fábrica, y le dirá la máquina para valorar haciendo clips, y luego darle el control del grupo de robots de fábrica, es posible volver al día siguiente para descubrir que se ha quedado sin cualquier otra forma de materia prima, matado a todos sus empleados, y de hecho clips de sus restos. Si, en un intento de corregir su mal, a reprogramar la máquina simplemente hacer felices a todos, es posible volver al día siguiente para encontrarlo insertar los alambres en los cerebros de las personas.

clips de papel

El punto aquí es que los seres humanos tienen una gran cantidad de valores complicados que asumimos se comparten de forma implícita con otras mentes. Valoramos dinero, pero valoramos la vida humana más. Queremos ser feliz, pero no necesariamente queremos poner cables en nuestro cerebro para hacerlo. No sentimos la necesidad de aclarar estas cosas cuando estamos dando instrucciones a otros seres humanos. No se puede hacer este tipo de supuestos, sin embargo, cuando se está diseñando la función de utilidad de una máquina. Las mejores soluciones en las matemáticas sin alma de una función sencilla utilidad son a menudo soluciones que los seres humanos Nix por ser moralmente horrible.

Permitiendo una máquina inteligente para maximizar una función de utilidad ingenua casi siempre será catastrófico. Como filósofo de Oxford Nick Bostom pone,

No podemos alegremente asumir que una super-inteligencia compartirá necesariamente cualquiera de los valores finales estereotipada asociados con la sabiduría y el desarrollo intelectual de los seres humanos-científica curiosidad, preocupación benévola para los demás, la iluminación espiritual y la contemplación, la renuncia a la codicia de material, el gusto por la cultura refinada o de los placeres simples de la vida, la humildad y desinterés, y así sucesivamente.

Para empeorar las cosas, es muy, muy difícil de especificar la lista completa y detallada de todo lo que la gente valora. Hay muchas facetas de la cuestión, y olvidando incluso uno solo es potencialmente catastrófico. Incluso entre aquellos que somos conscientes, hay sutilezas y complejidades que hacen que sea difícil de anotarlas como sistemas limpios de ecuaciones que podemos dar a una máquina como una función de utilidad.

Algunas personas, al leer esto, concluyen que la construcción de inhibidores de la aromatasa con funciones de utilidad es una idea terrible, y sólo deben diseñar de manera diferente. En este caso, también hay malas noticias - usted puede probar, de manera formal, que cualquier agente que no tenga algo equivalente a una función de utilidad no puede tener preferencias coherentes acerca del futuro.

Recursivo auto-mejoramiento

Una solución para el dilema anterior es la de no dar a los agentes AI la posibilidad de daño a la gente: darles sólo los recursos que necesitan para resolver el problema en la forma en que la intención es que hay que resolver, supervisarlos de cerca, y mantenerlos alejados de las oportunidades de hacer mucho daño. Por desgracia, nuestra capacidad para controlar las máquinas inteligentes es altamente sospechoso.

Incluso si no son mucho más inteligentes que nosotros, existe la posibilidad de que la máquina “bootstrap” - recoger mejor hardware o hacer mejoras en su propio código que hace que sea aún más inteligente. Esto podría permitir a una máquina de saltarse la inteligencia humana en muchos órdenes de magnitud, burlar los seres humanos en el mismo sentido que los seres humanos burlar los gatos. Este escenario fue propuesto por primera vez por un hombre llamado I. J. Good, que trabajó en el proyecto cripta-análisis Enigma con Alan Turing durante la Segunda Guerra Mundial. Lo llamó una “explosión de inteligencia, y se describe el asunto de esta manera:

Que un una máquina ultra inteligente puede definir como una máquina que ahora puede superar todas las actividades intelectuales de cualquier hombre, sin embargo inteligentes. Desde el diseño de máquinas es una de estas actividades intelectuales, una máquina ultra inteligente podría diseñar aún mejor máquinas- no habría entonces, sin duda, ser una “explosión de inteligencia”, y la inteligencia del hombre se quedaría muy atrás. Por lo tanto, la primera máquina ultra inteligente es el último invento que el hombre tiene que hacer alguna vez, siempre que la máquina es lo suficientemente dócil.

No está garantizado que una explosión de inteligencia es posible en nuestro universo, pero parece probable. Conforme pasa el tiempo, las computadoras se vuelven más rápidos y los conocimientos básicos sobre la inteligencia acumulación. Esto significa que las necesidades de recursos para hacer que el último salto a un general, bootstrapping inteligencia caer más y más. En algún momento, nos encontraremos en un mundo en el que millones de personas pueden conducir a una mejor compra y recoger el hardware y la literatura técnica que necesitan para construir una inteligencia artificial auto-mejora, que ya hemos establecido puede ser muy peligrosa. Imagine un mundo en el que se podría hacer bombas atómicas de palos y piedras. Ese es el tipo de futuro que estamos discutiendo.

Y, si una máquina hace que ese salto, podría muy rápidamente superando la especie humana en términos de productividad intelectual, solución de problemas que mil millones de seres humanos no pueden resolver, de la misma manera que los seres humanos pueden resolver los problemas que mil millones de gatos puede` t.

Se podría desarrollar poderosos robots (o bio o nanotecnología) y relativamente adquieren rápidamente la capacidad de cambiar el mundo a su antojo, y no sería muy poco lo que podíamos hacer al respecto. tal inteligencia podría despojar a la Tierra y el resto del sistema solar para piezas de repuesto sin muchos problemas, en su camino a hacer lo que nos dice que lo haga. Parece probable que esta evolución sería catastrófico para la humanidad. Una inteligencia artificial no tiene por qué ser dañino para destruir el mundo, simplemente catastróficamente indiferente.

Como dice el refrán, “La máquina no amor o el odio, pero que están hechas de átomos que puede utilizar para otras cosas.”

Evaluación de Riesgos y Mitigación

Por lo tanto, si aceptamos que el diseño de una poderosa inteligencia artificial que maximiza una función de utilidad simple es mala, la cantidad de problemas que realmente son en? ¿Cuánto tiempo hemos conseguido antes de que sea posible construir ese tipo de máquinas? Es, por supuesto, difícil de decir.

desarrolladores de inteligencia artificial son haciendo progreso. Las máquinas que construimos y los problemas que pueden resolver han estado creciendo constantemente en su alcance. En 1997, Deep Blue podría jugar al ajedrez a un nivel mayor que un gran maestro humano. En 2011, Watson de IBM podía leer y sintetizar suficiente información profunda y rápidamente lo suficiente para vencer a los mejores jugadores humanos en un juego de preguntas y respuestas con final abierto plagado de juegos de palabras - que es un gran progreso en catorce años.7 asombrosas páginas web para ver más en Inteligencia Artificial Programación7 asombrosas páginas web para ver más en Inteligencia Artificial ProgramaciónLa inteligencia artificial no es HAL desde el 2001: La Odisea en el espacio ... pero nos estamos terriblemente cerca. Efectivamente, un día podría ser tan similar a los potboilers de ciencia ficción que se produjo por Hollywood ....Lee mas

En este momento, Google está invirtiendo fuertemente en la investigación de aprendizaje profundo, una técnica que permite la construcción de redes neuronales de gran alcance mediante la construcción de cadenas de redes neuronales más simples. Esa inversión está permitiendo seguir avanzando con firmeza en el habla y el reconocimiento de imágenes. Su más reciente adquisición en la zona es un inicio aprendizaje profundo llamado DeepMind, para los que pagaron aproximadamente $ 400 millones. Como parte de los términos del acuerdo, Google acordó la creación de un comité de ética para asegurar que su tecnología AI se desarrolla de forma segura.

neuralnetwork

Al mismo tiempo, IBM está desarrollando Watson 2.0 y 3.0, los sistemas que son capaces de procesar imágenes y de vídeo y el argumento de la defensa de conclusiones. Dieron una demostración sencilla, a principios de la capacidad de Watson para sintetizar los argumentos a favor y en contra de un tema en el vídeo de demostración a continuación. Los resultados son imperfectos, pero un impresionante paso independientemente.

Ninguna de estas tecnologías son a su vez peligroso en este momento: la inteligencia artificial como un campo todavía está luchando para que coincida con las habilidades dominado por niños pequeños. la programación informática y el diseño de AI es una, habilidades cognitivas de alto nivel muy difícil, y es probable que sea la última tarea humana que las máquinas se vuelven competentes en. Antes de llegar a ese punto, también tendremos máquinas ubicuas que pueden conducir, practicar la medicina y el derecho, y probablemente otras cosas también, con profundas consecuencias económicas.Así es como vamos a llegar a un mundo lleno de coches sin conductorAsí es como vamos a llegar a un mundo lleno de coches sin conductorConducir es una tarea tediosa, peligroso y exigente. Podría algún día ser automatizado por la tecnología de coche sin conductor de Google?Lee mas

El tiempo que nos va a tomar para llegar al punto de inflexión de la auto-mejora sólo depende de la rapidez con que tenemos buenas ideas. La previsión de los avances tecnológicos de este tipo son notoriamente difíciles. No parece razonable que seamos capaces de construir la IA fuerte en veinte años de tiempo, sino que además no parece razonable que podría tomar años ochenta. De cualquier manera, va a suceder con el tiempo, y no hay razón para creer que cuando suceda, será extremadamente peligroso.

Por lo tanto, si aceptamos que esto va a ser un problema, ¿qué podemos hacer al respecto? La respuesta es asegurarse de que las primeras máquinas inteligentes son seguros, de modo que puedan arrancar hasta un nivel significativo de la inteligencia, y luego protegernos de máquinas inseguras realizadas posteriormente. Este ‘seguridad se define mediante el intercambio de valores humanos, y estar dispuesto a proteger y ayudar a la humanidad.

Debido a que en realidad no podemos sentarse y valores humanos del programa en la máquina, probablemente será necesario diseñar una función de utilidad que requiere la máquina para observar los seres humanos, deducir nuestros valores, y luego tratar de maximizar ellos. Con el fin de hacer de este proceso de desarrollo seguro, sino que también puede ser útil para desarrollar las inteligencias artificiales que están específicamente diseñados no tener preferencias sobre sus funciones de utilidad, lo que nos permite corregirlos o desactivarlas sin resistencia si empiezan a ir por mal camino durante el desarrollo.

stainedneurons

Muchos de los problemas que tenemos que resolver con el fin de construir una máquina inteligente segura son difíciles matemáticamente, pero no hay razón para creer que puedan ser resueltos. Un número de diferentes organizaciones están trabajando en el tema, incluyendo el futuro de la humanidad Instituto en Oxford, y el Instituto de Investigación en Inteligencia de la máquina (que financia Peter Thiel).

MIRI está interesado específicamente en el desarrollo de los cálculos necesarios para construir AI amistoso. Si resulta que la inteligencia artificial bootstrapping es posible, entonces el desarrollo de este tipo de tecnología ‘AI friendly` en primer lugar, si tiene éxito, puede terminar siendo lo más importante que los seres humanos han hecho cosa alguna.

¿Cree usted que la inteligencia artificial es peligroso? ¿Está preocupado por lo que el futuro de la IA podría llevar? Compartir sus pensamientos en la sección de comentarios!

Artículos Relacionados