Uso de cookies

GNOSS usa cookies, propias y de terceros, con finalidad principalmente técnica y necesaria para prestación de nuestros servicios y mostrarles contenido relevante. Más información en nuestra política de cookies.

ACEPTA para confirmar que has leído la información y aceptado su instalación. Puedes modificar la configuración de tu navegador.

337

Publicado por Equipo GNOSS

03/08/2018

En el año 2012, Google, en su blog, explicó como estaba transitando de la búsqueda por secuencia de caracteres a la búsqueda de entidades. En su artículo "Things, not Strings" explicaba la construcción de su Grafo de Conocimiento y como éste estaba condicionando la búsqueda, tras la compra dos años antes de Metaweb, empresa creadora de la gran base de entidades llamada Freebase.

Siguiendo en esta línea y avanzando más, en el año 2015, como se expone en el resumen del paper que adjuntamos "Knowledge Based Trust: Estimating the Trustworthiness of Web Sources" escrito por Xin Luna Dong, Evgeniy Gabrilovich, Kevin Murphy, Van Dang, Wilko Horn, Camillo Lugaresi, Shaohua Sun, Wei Zhang, Google explica como está basándose en hechos y no tanto en links a la hora de seguir avanzando en la construcción de un Grafo de Conocimiento "verdadero".

Así, los investigadores, apuntan en el resumen del paper que la calidad de las fuentes web se ha evaluado tradicionalmente utilizando señales exógenas como la estructura de los hipervínculos. Desde hace algún tiempo Google está identificando entidades del mundo y proponiendo un nuevo enfoque para sus búsquedas basado en señales endógenas, es decir, en la exactitud de la información objetiva proporcionada por la fuente. Una fuente que tiene pocos hechos falsos se considera confiable. Los hechos se extraen automáticamente de cada fuente mediante métodos de extracción comúnmente utilizados para construir bases de conocimiento (DBPedia, Yago, etc). Se está investigando la forma de distinguir errores cometidos en el proceso de extracción de entidades mediante el uso de inferencias conjuntas en un novedoso modelo probabilístico multicapa.


Llaman puntaje de confiabilidad al cálculo basado en el conocimiento Confianza (KBT). En datos sintéticos, muestran que con este método pueden calcular los verdaderos niveles de confiabilidad de las fuentes. De este modo lo aplican
luego a una base de datos con millones de hechos extraídos de la web, y así pueden estimar la confiabilidad de millones de páginas web.

Publicado por Equipo GNOSS

01/08/2018

Xin Luna Dong, responsable de investigación del Product Graph de Amazon, expone en esta presentación algunos de los desafios más importantes con los que se están enfrentando a la hora de construir un Grafo de Productos que sea, ya no una parte o subconjunto del Knowledge Graph de Google, sino un Grafo de Productos con características y atributos propios. Todo ello, claro está, con el objetivo de responder mejor y dar una mayor satisfacción al usuario cuando quiere encontrar un producto. La misión es ofrecerle todo el conocimiento existente sobre este producto y ofrecer una experiencia digital mejorada que además le recomiende de forma pertinente ¿Qué otros libros, películas, artículos, han comprado las personas que también han comprado lo mismo que yo?

En la presentación hace un recuento del conjunto de problemas y retos a los que se enfrentan para abordar este gran desafío:

No hay fuentes estructuradas que ayuden a la creación del grafo de productos:

  • La Wikipedia ayuda poco, no está centrada en esto
  • Mucho texto estructurado está enterrado en el texto de la descripción del producto
  • Los minoristas y vendedores juegan con el sistema introduciendo ruido en los datos

Se crean productos nuevos todos los días

  • La curación es imposible
  • Refrescar los nuevos productos es un gran desafío

Hay un gran número de categorías de productos:

  • Definición muy manual de la ontología necesaria
  • Dificultad para capturar la tendencia de nuevas categorías de productos y sus propiedades

Muchas entidades no son nombradas como entidades

  • No es aplicable el reconocimiento de entidades
  • Nuevos desafíos para la extracción, enlazado y búsqueda

La presentación aborda los diversos escenarios de investigación que se están planteando.

Publicado por Equipo GNOSS

17/08/2015

 

Las tecnologías de la web semántica se aplican a menudo a un gran espectro de aplicaciones en las que el conocimiento del dominio se conceptualiza y formaliza (Ontología) como soporte para suprocesamiento (Razonamiento) operado por las máquinas. Por otra parte, a través de una sutil unión de razonamiento humano (cognitivo) y el razonamiento mecánico (base lógica), es posible para los seres humanos y máquinas compartir tareas complementarias. Por nombrar algunas de esas áreas de aplicación: Portales Corporativos y Gestión del Conocimiento, E-Commerce, E-trabajo, Salud, E-Gobiemo, la comprensión del lenguaje natural y automatizada, búsqueda de información, integración de datos y Servicios, Redes sociales y filtrado colaborativo, etc.

Desde la perspectiva social y económica esta tecnología emergente debe contribuir no solo al crecimiento de la riqueza económica, sino que también debe mostrar un aporte claro de valor en nuestras actividades cotidianas para ser una tecnología transparente y eficiente. La adopción de las tecnologías de la Web Semántica por parte de la industria está avanzando lentamente. Uno de los problemas es que el mundo académico no siempre es consciente de los problemas concretos que se plantean en la industria. Por el contrario, la industria no está a menudo bien informada acerca de los desarrollos académicos que potencialmente puede satisfacer sus necesidades. En este documento se presenta un trabajo en curso en la fertilización cruzada entre la industria y la academia. En particular, se presenta una colección de campos de aplicaciones y casos de uso de las empresas que están interesadas en las promesas de la tecnología de la Web Semántica.

Campos de aplicación:

  • Knowledge Management
  • E-Commerce
  • Biosciences and Medical applications

 

Cargando...

Cargando...