Microsoft vs google - que dirige la carrera de la inteligencia artificial?
AI está de vuelta.
Por primera vez desde la década de 1980, los investigadores de inteligencia artificial están haciendo progresos tangibles en los problemas difíciles, y la gente está empezando a hablar en serio de la IA fuerte de nuevo. Por el momento, nuestro mundo cada vez más impulsado por los datos, dio inicio a una carrera armamentista entre las empresas que buscan obtener beneficios económicos de la nueva inteligencia, particularmente en el espacio móvil.
Los dos titanes a la cabeza son Google y Microsoft. La primera batalla? Un nuevo dominio de la inteligencia artificial llamado “Deep Learning”.
Entonces, ¿quién está ganando?
El cerebro Google
los esfuerzos de investigación de Google se han centrado en torno a un proyecto llamado ‘Google cerebro. Google cerebro es el producto de la famosa secreto ‘Google X` laboratorio de investigación de Google /, que es responsable de proyectos de luna de tiro con bajas probabilidades de éxito, pero con muy alto potencial. Otros productos de Google X incluyen el Proyecto Loon, la iniciativa de Internet globo, y el proyecto de coche de auto-conducción Google.Así es como vamos a llegar a un mundo lleno de coches sin conductorAsí es como vamos a llegar a un mundo lleno de coches sin conductorConducir es una tarea tediosa, peligroso y exigente. Podría algún día ser automatizado por la tecnología de coche sin conductor de Google?Lee mas
Google cerebral es una iniciativa de aprendizaje enorme máquina que está dirigido principalmente a procesamiento de imágenes, pero con ambiciones mucho más amplias. El proyecto fue iniciado por el profesor de Stanford Andrew Ng, un experto en aprendizaje automático que desde entonces ha dejado el proyecto para trabajar por Baidu, el mayor motor de búsqueda de China.
Google tiene una larga historia de participación en la investigación en IA. Matthew Zeiler, el CEO de una puesta en marcha de la máquina visual, y un pasante que trabajó en el cerebro Google lo expresa así:
“Google no es realmente una compañía de búsqueda. Es una empresa de máquinas-learning [..] Todo en la empresa está realmente impulsado por la máquina de aprendizaje “.
El objetivo del proyecto es encontrar maneras de mejorar los algoritmos de aprendizaje profundas para construir redes neuronales que pueden encontrar patrones más profundas y significativas en los datos utilizando menos potencia de procesamiento. Con este fin, Google ha estado comprando agresivamente talento en el aprendizaje profundo, haciendo adquisiciones que incluyen la compra de arranque IA DeepMind $ 500 millones.
DeepMind se preocupó lo suficiente sobre las aplicaciones de la tecnología que se ven obligados Google para crear una ética tabla diseñada para evitar que su software de la destrucción del mundo. DeepMind tenía todavía no ha publicado su primer producto, pero la compañía hizo emplear una fracción significativa de todos los expertos aprendizaje profundo en el mundo. Hasta la fecha, la única demostración pública de su tecnología ha sido un juguete IA que es muy, muy bueno en Atari.He aquí por qué los científicos creen que debería estar preocupado por la Inteligencia ArtificialHe aquí por qué los científicos creen que debería estar preocupado por la Inteligencia Artificial¿Cree usted que la inteligencia artificial es peligroso? AI no puede suponer un grave riesgo para la raza humana. Estas son algunas de las razones por las que puede ser que se trate.Lee mas
Debido a que el aprendizaje profundo es un campo relativamente nuevo, no ha tenido tiempo de producir una gran generación de expertos. Como resultado, hay un número muy pequeño de personas con experiencia en el área, y eso significa que es posible obtener una ventaja significativa en el campo mediante la contratación de todos los involucrados.
Google cerebro ha sido aplicada, hasta ahora, a la función de reconocimiento de voz de Android y para catalogar automáticamente las imágenes de Street View, la identificación de las características importantes como las direcciones. Una primera prueba fue el famoso experimento del gato, en el que una red de aprendizaje profundo Google aprendió de forma automática para identificar gatos en los videos de YouTube con una mayor tasa de precisión que el estado anterior de la técnica. En su artículo sobre el tema, Google lo expresó así:
“Contrariamente a lo que parece ser una intuición ampliamente retenida, nuestros resultados experimentales revelan que es posible entrenar a un detector de caras sin tener que etiquetar las imágenes contiene una cara o no [...] La red es sensible a los conceptos de alto nivel tales como caras de gato y cuerpos humanos. A partir de estas características aprendidas, capacitamos a obtener 15,8 por ciento de precisión en el reconocimiento de 20.000 categorías de objetos, un salto de 70 por ciento de mejora relativa sobre el estado de la técnica anterior [redes] “.
Eventualmente, Google quiere sus algoritmos de aprendizaje profundas que hacer ... bueno, casi todo, en realidad. Potentes plataformas de IA como Watson de IBM se basan en este tipo de algoritmos de aprendizaje automático de bajo nivel, y las mejoras en este frente hacen el campo general de AI que mucho más potente.
Una versión futura de Google Now, impulsado por Google cerebro podría identificar tanto el habla como imágenes y proporcionar ideas inteligentes sobre esos datos para ayudar a los usuarios a tomar decisiones más inteligentes. Google cerebro podría mejorar todo, desde los resultados de búsqueda a Google Translate.
microsoft Adam
El enfoque de Microsoft a la guerra aprendizaje profundo ha sido un poco diferente. En lugar de tratar de comprar hasta el aprendizaje profundo expertos para afinar sus algoritmos, Microsoft se ha centrado en la mejora de la aplicación, y la búsqueda de mejores formas para paralelizar los algoritmos utilizados para tren algoritmos de aprendizaje profundas.
Vídeo: Making AI for the masses, no more black boxes | Microsoft Build
Este proyecto se denomina “Microsoft Adán.” Sus técnicas reducen el cálculo redundante, duplicando la calidad de los resultados durante el uso de un menor número de procesadores para obtenerlos. Esto ha llevado a logros técnicos impresionantes, incluyendo una red que puede reconocer las razas de perros individuales a partir de fotografías con alta precisión.
Microsoft describe el proyecto como este:
El objetivo del Proyecto Adam es permitir que el software para reconocer visualmente cualquier objeto. Es una tarea difícil, dada la red neuronal inmensa en el cerebro humano que hace que este tipo de asociaciones posibles a través de billones de conexiones. [...] El uso de 30 veces menos máquinas que otros sistemas, [los datos de la imagen del Internet] se utilizó para entrenar una red neuronal hecho por más de dos mil millones de conexiones. Esta infraestructura escalable es dos veces más preciso en su reconocimiento de objetos y 50 veces más rápido que otros sistemas.
La aplicación obvia de esta tecnología se encuentra en Cortana, nueva asistente virtual de Microsoft, inspirado por el carácter AI en Halo. Cortana, con el objetivo de competir con Siri, puede hacer varias cosas inteligentes, utilizando técnicas de reconocimiento de voz sofisticados.¿Cómo se convirtió en el Cortana "Otra mujer" En mi vida¿Cómo se convirtió en el Cortana "Otra mujer" En mi vidaApareció un día y cambió mi vida. Ella sabe exactamente lo que necesito y tiene un gran sentido del humor. No es de extrañar que me he enamorado de los encantos de Cortana.Lee mas
El objetivo del diseño es la construcción de un asistente con una interacción más natural, y puede realizar una mayor variedad de tareas útiles para el usuario, algo que el aprendizaje profundo ayudaría con enormemente.
mejoras de Microsoft para la parte final de un aprendizaje profundo son impresionantes, y han dado lugar a las aplicaciones antes no eran posibles.
Vídeo: Captain Marvel is Most Powerful Avenger in Infinity War Explained
Vídeo: Inteligencia artificial en las empresas peruanas
¿Cómo funciona el aprendizaje profundo
Con el fin de entender el asunto un poco mejor, tomemos un minuto para entender esta nueva tecnología. El aprendizaje profundo es una técnica para la creación de software inteligente, a menudo se aplica a las redes neuronales. Se construye redes grandes, útiles por capas de redes neuronales simples juntos, cada uno para encontrar patrones en la salida de su predecesor. Para entender por qué esto es útil, es importante tener en cuenta lo que ocurrió antes aprendizaje profundo.
Backpropagating Redes Neuronales
La estructura subyacente de una red neuronal es en realidad bastante simple. Cada ‘neurona` es un nodo pequeño que toma una entrada, y utiliza las reglas internas para decidir cuándo‘fuego’(producir una salida). Las entradas de alimentación en cada neurona tienen “pesos” - Líderes que controlan si la señal es positiva o negativa y que tan fuerte.
Mediante la conexión de estas neuronas en conjunto, se puede construir una red que emula cualquier algoritmo. Que alimenta a su entrada en las neuronas de entrada como valores binarios, y se mide el valor de disparo de las neuronas de salida para obtener la salida. Como tal, el truco a las redes neurales de cualquier tipo es tomar una red y encontrar el conjunto de pesos que mejor se aproxima a la función que le interesa.
Propagación hacia atrás, el algoritmo utilizado para entrenar a la red basada en los datos, es muy simple: se inicia la red con pesos al azar, y luego tratar de clasificar los datos con respuestas conocidas. Cuando la red es incorrecta, y comprueba por qué está mal (que produce una salida más pequeña o más grande que el de destino), y utilizar esa información para empujar los pesos en una dirección más útil.
Al hacer esto una y otra vez, para muchos puntos de datos, la red aprende a clasificar a todos los puntos de datos correctamente, y, con suerte, para generalizar nuevos puntos de datos. La idea clave del algoritmo de retropropagación es que se puede mover datos de error hacia atrás a través de la red, cambiando cada capa sobre la base de los cambios realizados en la última capa, lo que le permite construir redes de varias capas profundas, que pueden comprender los patrones más complicados.
Backprop fue inventado en 1974 por Geoffrey Hinton, y tenía el notable efecto de hacer que las redes neuronales útiles para amplias aplicaciones para la primera vez en la historia. redes neuronales triviales han existido desde la década de los 50, y se llevaron a cabo inicialmente con las neuronas mecánicos, accionados por motor.
Otra forma de pensar en el algoritmo de Backprop es como un explorador en un paisaje de posibles soluciones. Cada neurona de peso es otra dirección en la que se puede explorar, y para la mayoría de las redes neuronales, hay miles de estos. La red puede usar su información de error para ver qué dirección se necesita para entrar y en qué medida, con el fin de reducir el error.
Se inicia en un punto al azar, y consultando continuamente su brújula de error, se mueve hacia abajo ‘` en la dirección de un menor número de errores, finalmente se instaló en la parte inferior del valle más cercana: la mejor solución posible.
Entonces, ¿por qué no usamos propagación hacia atrás para todo? Bueno, Backprop tiene varios problemas.
El problema más grave se llama el ‘desaparición problema gradiente."Básicamente, a medida que mueve datos de error de vuelta a través de la red, se vuelve menos significativa, cada vez que vuelves una capa. Tratando de construir redes neuronales muy profundas con propagación hacia atrás no funciona, debido a que la información de error no será capaz de penetrar lo suficiente en la red para entrenar a los niveles más bajos de una manera útil.
Un segundo problema, menos grave es que las redes neuronales convergen sólo para óptimos locales: a menudo son atrapados en un pequeño valle y se pierda mejores soluciones más profundas, que no están cerca de su punto de partida aleatorio. Así que, ¿cómo resolvemos estos problemas?
Las redes de creencias profundas
redes de creencias profundas son una solución a ambos problemas, y que se basan en la idea de construir redes que ya tienen una idea de la estructura del problema, y luego refinar esas redes con propagación hacia atrás. Esta es una forma de aprendizaje profundo, y el de uso común por parte de Google y Microsoft.
La técnica es sencilla, y se basa en una especie de red llamado “Restringido Boltzman Machine” o “gestión por resultados”, que se basa en lo que se conoce como aprendizaje no supervisado.
Máquinas de Boltzman restringido, en pocas palabras, son redes que simplemente tratan de comprimir los datos que se les da, en lugar de tratar de clasificar explícitamente de acuerdo a la información de entrenamiento. RBM tienen una colección de puntos de datos, y están capacitados de acuerdo a su capacidad de reproducir esos puntos de datos de la memoria.
Al hacer que el RBM menor que la suma de todos los datos que está pidiendo a codificar, se fuerza la RBM para aprender regularidades estructurales sobre los datos con el fin de almacenar todo en menos espacio. Este aprendizaje de la estructura profunda permite a la red de generalizar: Si se entrena un RBM para reproducir un millar de imágenes de gatos, a continuación, puede alimentar una nueva imagen en él - y mirando cómo enérgica la red se convierte en un resultado, se puede averiguar si es o no la nueva imagen contenía un gato.
Las reglas de aprendizaje para los mismos mecanismos se asemejan a la función de las neuronas reales en el interior del cerebro de maneras importantes que otros algoritmos (como backpropagation) no lo hacen. Como resultado, pueden tener cosas para enseñar a los investigadores acerca de ¿Cómo funciona la mente humana.Máquinas pensar: ¿Qué Neurociencia e Inteligencia Artificial puede enseñarnos sobre la concienciaMáquinas pensar: ¿Qué Neurociencia e Inteligencia Artificial puede enseñarnos sobre la concienciaPueden construir máquinas con inteligencia artificial y el software nos enseñan acerca del funcionamiento de la conciencia, y la naturaleza de la propia mente humana?Lee mas
Otra característica interesante de dichos mecanismos es que son “constructiva”, lo que significa que pueden también pueden funcionar a la inversa, trabajando hacia atrás a partir de una función de alto nivel para crear entradas imaginarias que contienen esa característica. Este proceso se llama “el sueño”.
¿Por qué es esto útil para el aprendizaje profundo? Bueno, Boltzman máquinas tienen serios problemas de escala - el más profundo se procura que, cuanto más tiempo se necesita para entrenar a la red.
Vídeo: Artificial Intelligence - AI
La idea clave de las redes de creencias profundas es que se puede apilar GBR de dos capas juntos, cada uno capacitado para encontrar la estructura de la salida de su predecesor. Esto es rápido, y conduce a una red que puede comprender características complicadas, resumen de los datos.
En una tarea de reconocimiento de imágenes, la primera capa puede aprender a ver las líneas y curvas, y la segunda capa podría aprender a ver las combinaciones de esas líneas que componen características como los ojos y la nariz. La tercera capa podría combinar esas características y aprender a reconocer una cara. Girando a esta red durante propagación hacia atrás, se puede afinar en sólo aquellas características que se relacionan con las categorías que le interesan.
En muchos sentidos, esta es una solución simple para propagación hacia atrás: se permite Backprop “trampa” iniciándolo con un montón de información sobre el problema que está tratando de resolver. Esto ayuda a la red de llegar mejor a las mínimas, y asegura que los niveles más bajos de la red son entrenados y hacer algo útil. Eso es.
Por otra parte, los métodos de aprendizaje profundas han producido mejoras en la velocidad de aprendizaje de la máquina y la precisión, y son casi responsable de la rápida mejora del habla con el software de texto en los últimos años sin ayuda.
Carrera por Canny Computadoras
Usted puede ver por qué todo esto es útil. Cuanto más profundo se puede construir redes, las más grandes y más abstractos los conceptos que la red puede aprender.
¿Quieres saber si un correo electrónico es spam? Para los spammers inteligentes, eso es difícil. Hay que leer realmente el correo electrónico, y comprender algo de la intención detrás de ella - tratar de ver si hay una relación entre el emisor y el receptor, y deducir las intenciones del receptor. Usted tiene que hacer todo lo que se basan en cadenas incoloros de cartas, la mayoría de los cuales están describiendo conceptos y eventos que el ordenador no sabe nada.
Eso es mucho pedir de nadie.
Si se le pidió que aprender a identificar el spam en un idioma que no habla ya, siempre sólo algunos ejemplos positivos y negativos, que haría muy mal - y tiene un cerebro humano. Para un equipo, el problema ha sido casi imposible, hasta hace muy poco. Esos son los tipos de puntos de vista que el aprendizaje profundo puede tener, y que va a ser muy poderoso.
En este momento, Microsoft de ganar esta carrera por un pelo. ¿A la larga? Es una incógnita.