Next Web: web 3.0, web semántica y el futuro de internet > gpu

    sortFiltrar Ordenar
    1 resultados

    Página Web

    /

    Publicado el 2.1.2019 por Equipo GNOSS

    Inteligencia Artificial: distinguiendo la moda de la realidad - Datanami

    Se trata de un interesante artículo de Alex Woodie, Editor in Chief de Datanami, en el que se pone en cuestión los límites y naturaleza de la actual moda (hype) de la Inteligencia Artificial.

    Por una parte, tenemos increibles avances en machine learning, gracias a las redes neuronales que usan GPUs (Graphics Processing Unit) muy rápidas y que están entrenadas con grandes cantidades de datos. Esta forma de IA ha impulsado enormemente los sistemas de visión artificial y de reconocimiento del habla, a menudo por encima de la capacidad de los humanos.

    Por otra, estamos lejos de comenzar a ver los tipos de automatización que muchos esperan de la IA. A pesar de que se empujan las fronteras de lo que es posible hacer con estas máquinas y algoritmos, ya hemos llegado a algunos límites de lo que estas tecnologías pueden conseguir.

    Los vehículos autónomos son una prueba evidente. A pesar de los enormes progresos, hay casos, como el padecido por la empresa DarwinAI, que exponen los problemas de estos sistemas en el mundo real al salirse de los casos previstos. El sistema de DarwinAI decidía desviarse a la izquierda sin razón aparente, hasta que descubrieron que se debía a una mala interpretación del color del cielo.

    Otro ejemplo curioso es el experimento llevado a cabo por investigadores de Carnegie Mellon, que fueron capaces de confundir tanto a un sistema de reconocimiento facial como para que identificara a uno de ellos como la actriz Milla Jovovich, a pesar de ser claramente un hombre (el estudiante de doctorado Mahmood Sharif), por el simple método de usar una montura de gafas diseñada para provocar el error.

    Esto, que podría parecer una anécdota, expone unos problemas de seguridad preocupantes, además de diluir los límites en lo que podríamos llegar a percibir como real o irreal.

    Es decir, las aplicaciones de IA actuales basadas en machine learning funcionan muy bien o excepcionalmente bien en ámbitos muy "estrechos", pero bastante peor cuando intentan pasar de un ámbito a otro o simplemente ejecutarse en el poco previsible mundo real. Eso sí, hay un consenso en que aún no hemos llegado a la cúspide de lo que se podría conseguir con las tecnologías actuales de IA, que el autor llama "estadística con esteroides" y otros han denominado como "estadística glorificada" (John Alexis Guerra).

    Hace unos 70 años que la inteligencia artificial forma parte del imaginario tecnológico colectivo. Desde entonces, ha tenido periodos innovadores prometedores con otros en los que las innovaciones parecían estancarse. Algunos investigadores de IA han llamado a estos periodos veranos e inviernos de la inteligencia artificial. Parecemos estar en un verano muy soleado, ¿cuándo dejará el calor actual paso a la realidad?

    ...