facetas
Tipo de contenido

Recursos > Representación del conocimiento

    sortFiltrar Ordenar
    207 resultados

    Página Web

    /

    Publicado el 7.5.2019 por Equipo GNOSS

    Wikidata y DBpedia: viaje al centro de la web de datos

    "A partir de Wikipedia, como fuente de conocimiento organizado en forma de artículos enciclopédicos, editada mediante la colaboración masiva online, se han desarrollado dos proyectos de carácter semántico: DBpedia y Wikidata. Se analizan las diferencias y similitudes entre ambos modelos de datos y modelo de producción, y se especula sobre la posible evolución y coexistencia de ambos a partir de sus puntos fuertes. Su fortaleza como grafo abierto de conocimiento multidominio aporta un gran valor a la extensión de la web de datos, al actuar como punto de interconexión entre diferentes dominios".
    Saorín, Tomás; Pastor-Sánchez, Juan-Antonio (2018). “Wikidata y DBpedia: viaje al centro de la web de datos". Anuario ThinkEPI , v. 12, pp. 207-214. https://doi.org/10.3145/thinkepi.2018.31

    ...

    Página Web

    /

    Publicado el 13.1.2019 por Equipo GNOSS

    Así se presentan las ontologías SPAR en su web: "In the past, several groups have proposed (Semantic Web) models, such as RDFS vocabularies and OWL ontologies, to describe particular aspects of the publishing domain. However, these models were mainly concerned with the description of the metadata of bibliographic resources (e.g., DC Terms, PRISM and BIBO). One of the first attempts to address the description of the whole publishing domain is the introduction of the Semantic Publishing and Referencing (SPAR) Ontologies. SPAR is a suite of orthogonal and complementary OWL 2 ontologies that enable all aspects of the publishing process to be described in machine-readable metadata statements, encoded using RDF."

    ...

    Categorías:

    Artículo

    /

    Publicado el 17.9.2018 por Ricardo Alonso Maturana

    The Semantic Web provides an enticing vision of our online future. This next-generation Web will enable intelligent computer assistants to work autonomously on our behalf: scheduling our appointments, doing our shopping, finding the information we need, and connecting us with like-minded individuals.

    Unfortunately, the Semantic Web is also a vision that, to some, seems very distant, perhaps even outdated. It has been over a decade since it was popularized in a May 2001 article in Scientific American. Semantic Web researchers and engineers have been toiling even longer on the monumental technical and sociological challenges inherent in creating a global Semantic Web.

    The good news is that we are seeing evidence today of its accelerating emergence. Although still far from its grand vision, there are available today small “local” versions of semantic webs and intelligent assistants. Consumers can begin using these intelligent assistants today; producers can begin incorporating this next-generation semantic data into their current business models and applications.

    Paradoxically, the path to a global solution may evolve not only through the cooperation of a community, but through the selective forces of competition. As proprietary semantic networks and software agents vie for mass market dominance, winning technical and business models will emerge through a tapestry of data providers and services.

    ...

    Página Web

    /

    Publicado el 9.8.2018 por Equipo GNOSS

    Anotación semántica basada en grafos para mejorar las interacciones de Alexa - Amazon

    Este artículo de Lambert Mathias (Principal Scientist, Alexa Machine Learning, Amazon) trata sobre la aplicación de técnicas más sofisticadas de representación semántica, basadas en grafos y ontologías, para el desarrollo de habilidades más complejas en el asistente Alexa.

    El uso de Alexa Meaning Representation Language (AMRL) proporciona una solución de anotación semántica con dos componentes principales:

    1. Una gran ontología jerárquica de tipos (categorías de menciones textuales), roles (argumentos de una acción), acciones (predicados que definen lo que el agente debería hacer) y propiedades-operadores (relaciones entre los tipos).
    2. Un conjunto de convenciones que mapean el lenguaje natural con una representación en grafo, agnóstica respecto al lenguaje y al dominio de conocimiento, ajustada para agentes conversacionales como Alexa.

    ...

    Página Web

    /

    Publicado el 3.8.2018 por Equipo GNOSS

    Nueva versión de Ontología PREMIS 3 de preservación digital

    PREMIS Data Dictionary for Preservation Metadata es un estándar internacional de metadatos que da soporte a la preservación de objetos digitales y asegura su usabilidad a largo plazo.

    PREMIS se usa en proyectos de preservación digital en todo el mundo y está incorporado en herramientas y sistemas de preservación digital, tanto comerciales como open source.

    El estándar PREMIS consiste en un diccionario de datos (con una nueva versión 3.0), un esquema XML, una ontología y documentación de soporte.

    La ontología PREMIS OWL proporciona una codificación RDF para el modelo de datos que define las entidades (Objects, Events, Agents y Rights), las propiedad de dichas entidades (unidades semánticas) y las relaciones entre ellas.

    Esta revisión está basada en el nuevo PREMIS Data Dictionary, version 3.0 y es una remodelación de la ontología anterior que incorpora nuevas mejores prácticas de Linked Data y conecta con otras ontologías RDF relevantes como PROV-O (Provenance ontology), Dublin Core metadata terms y los vocabularios de preservación de Library of Congress, entre otros.

    ...

    Categorías:

    Página Web

    /

    Publicado el 3.8.2018 por Equipo GNOSS

    SEO Semántico: de etiquetas y palabras clave a ontologías

    En este artículo, la persona que más y mejor ha estudiado las patentes desarrolladas por Google y sus efectos en el posicionamiento web, divulga como en el algoritmo de búsqueda de Google ya no es tan importante las etiquetas que ponemos a un artículo o post cuanto la estructuración "ontológica" de su contenido.

    Lo que Google está valorando son aquellas fuentes que le proporcionan un conocimiento claro y distinto, es decir, que le dan la información sobre qué entidades existen en su contenidos, cuales son sus atributos y con qué están relacionados. Cuando al publicar un contenido digital, estás publicando datos en RDF/OWL, haciendo transparente a Google cuales son los "hechos" y las "entidades" de este contenido, Google lo aprecia y lo premia con un mejor posicionamiento.

     

     

    ...

    Pdf

    /

    Publicado el 3.8.2018 por Equipo GNOSS

    Google: conocimiento basado en hechos. De enlaces a hechos. Knowledge based Trust. Un grafo de conocimiento "verdadero"

    En el año 2012, Google, en su blog, explicó como estaba transitando de la búsqueda por secuencia de caracteres a la búsqueda de entidades. En su artículo "Things, not Strings" explicaba la construcción de su Grafo de Conocimiento y como éste estaba condicionando la búsqueda, tras la compra dos años antes de Metaweb, empresa creadora de la gran base de entidades llamada Freebase.

    Siguiendo en esta línea y avanzando más, en el año 2015, como se expone en el resumen del paper que adjuntamos "Knowledge Based Trust: Estimating the Trustworthiness of Web Sources" escrito por Xin Luna Dong, Evgeniy Gabrilovich, Kevin Murphy, Van Dang, Wilko Horn, Camillo Lugaresi, Shaohua Sun, Wei Zhang, Google explica como está basándose en hechos y no tanto en links a la hora de seguir avanzando en la construcción de un Grafo de Conocimiento "verdadero".

    Así, los investigadores, apuntan en el resumen del paper que la calidad de las fuentes web se ha evaluado tradicionalmente utilizando señales exógenas como la estructura de los hipervínculos. Desde hace algún tiempo Google está identificando entidades del mundo y proponiendo un nuevo enfoque para sus búsquedas basado en señales endógenas, es decir, en la exactitud de la información objetiva proporcionada por la fuente. Una fuente que tiene pocos hechos falsos se considera confiable. Los hechos se extraen automáticamente de cada fuente mediante métodos de extracción comúnmente utilizados para construir bases de conocimiento (DBPedia, Yago, etc). Se está investigando la forma de distinguir errores cometidos en el proceso de extracción de entidades mediante el uso de inferencias conjuntas en un novedoso modelo probabilístico multicapa.


    Llaman puntaje de confiabilidad al cálculo basado en el conocimiento Confianza (KBT). En datos sintéticos, muestran que con este método pueden calcular los verdaderos niveles de confiabilidad de las fuentes. De este modo lo aplican
    luego a una base de datos con millones de hechos extraídos de la web, y así pueden estimar la confiabilidad de millones de páginas web.

    ...

    Página Web

    /

    Publicado el 1.8.2018 por Equipo GNOSS

    La construcción del Grafo de Conocimiento en Linkedin

    El director de Inteligencia Artificial de Linkedin explica en este artículo como Linkedin está construyendo su Grafo de Conocimiento.

    LinkedIn knowledge Graph es una gran base de conocimiento construida sobre "entidades" en LinkedIn, como miembros, trabajos, títulos, habilidades, compañías, ubicaciones geográficas, escuelas, etc. Estas entidades y las relaciones entre ellas forman la ontología del mundo profesional y son utilizados por LinkedIn para mejorar sus sistemas de recomendación, búsqueda, monetización y productos de consumo, negocios y análisis del consumidor.

    En este artículo el autor explica como aplican técnicas de Machine Learning para resolver los desafíos al crear el grafo de conocimiento, que es esencialmente un proceso de estandarización de datos sobre contenido generado por el usuario y fuentes de datos externas, en el que el aprendizaje automático se aplica:

    • la construcción taxonómica de entidades
    • la inferencia de relaciones entre entidades,
    • la representación de datos para consumidores de datos descendentes
    • la penetración de conocimiento (información) a partir del grafo 
    • la adquisición activa de datos de los usuarios para validar nuestra inferencia y recopilar datos de capacitación.

    El grafo de conocimiento de LinkedIn es un grafo dinámico. Las nuevas entidades se agregan al grafo y las nuevas relaciones se forman continuamente. Las relaciones existentes también pueden cambiar. Por ejemplo, el mapeo de un miembro a su título actual cambia cuando tiene un nuevo trabajo. Por tanto, hay que actualizar el grafo de conocimiento de LinkedIn en tiempo real cuando se produzcan cambios en el perfil de los miembros y nuevas entidades emergentes.

    ...

    Página Web

    /

    Publicado el 17.1.2018 por Equipo GNOSS

    Mejoras en Linked Open Vocabularies (LOV)

    El proyecto Linked Open Vocabularies (LOV) continúa en su tarea de eliminar las barreras que la selección de vocabularios puede provocar a los publicadores de datos en el desarrollo de sus proyectos Linked Data.

    Un reciente paper, Linked Open Vocabularies (LOV): a gateway to reusable semantic vocabularies on the Web, premiado con el Semantic Web Outstanding Paper Award 2017, describe LOV como un catálogo de vocabularios reutilizables de alta calidad, para la descripción de datos en la Web. La iniciativa LOV recopila y hace visible indicadores que no habían sido previamente recopilados, como la interconexión entre vocabularios o el historial de versiones

    ...

    Página Web

    /

    Publicado el 10.4.2017 por Equipo GNOSS

    Semantic Data Management in Practice Half-day Tutorial at WWW 2017

    After years of research and development, standards and technologies for semantic data are sufficiently mature to be used as the foundation of novel data science projects that employ semantic technologies in various application domains such as bio-informatics, materials science, criminal intelligence, and social science. Typically, such projects are carried out by domain experts who have a conceptual understanding of semantic technologies but lack the expertise to choose and to employ existing data management solutions for the semantic data in their project. For such experts, including domain-focused data scientists, project coordinators, and project engineers, our tutorial delivers a practitioner's guide to semantic data management. We discuss the following important aspects of semantic data management and demonstrate how to address these aspects in practice by using mature, production-ready tools:

    • i) storing and querying semantic data;
    • ii) understanding,
    • iii) searching, and
    • iv) visualizing the data;
    • v) automated reasoning;
    • vi) integrating external data and knowledge; and
    • vii) cleaning the data.

    ...

    Etiquetas: