Grafo de Conocimiento > dbpedia

    sortFiltrar Vista Ordenar
    11 resultados

    Página Web

    /

    Publicado el 7.5.2019 por Equipo GNOSS

    Wikidata y DBpedia: viaje al centro de la web de datos

    "A partir de Wikipedia, como fuente de conocimiento organizado en forma de artículos enciclopédicos, editada mediante la colaboración masiva online, se han desarrollado dos proyectos de carácter semántico: DBpedia y Wikidata. Se analizan las diferencias y similitudes entre ambos modelos de datos y modelo de producción, y se especula sobre la posible evolución y coexistencia de ambos a partir de sus puntos fuertes. Su fortaleza como grafo abierto de conocimiento multidominio aporta un gran valor a la extensión de la web de datos, al actuar como punto de interconexión entre diferentes dominios".
    Saorín, Tomás; Pastor-Sánchez, Juan-Antonio (2018). “Wikidata y DBpedia: viaje al centro de la web de datos". Anuario ThinkEPI , v. 12, pp. 207-214. https://doi.org/10.3145/thinkepi.2018.31

    ...

    Artículo

    /

    Publicado el 1.8.2018 por Equipo GNOSS

    YAGO es una gran base de conocimiento semántico, derivada de Wikipedia, WordNet, WikiData, GeoNames y otras fuentes de datos. Actualmente, YAGO identifica más de 17 millones de entidades (como personas, organizaciones, ciudades, etc.) y contiene más de 150 millones de datos sobre estas entidades.

    YAGO tiene una serie de propiedades de interés:

    •     La precisión de YAGO se ha evaluado manualmente, lo que demuestra una precisión confirmada del 95% (*). Cada relación está anotada con su valor de confianza.
    •     YAGO combina la taxonomía limpia de WordNet con la riqueza del sistema de categorías de Wikipedia, asignando las entidades a más de 350,000 clases.
    •     YAGO está anclado en el tiempo y el espacio. YAGO concede una dimensión temporal y una dimensión espacial a muchos de sus hechos y entidades.
    •     Además de la taxonomía, YAGO tiene dominios temáticos como "música" o "ciencia" de WordNet Domains.
    •     YAGO extrae y combina entidades y hechos de 10 Wikipedias en diferentes idiomas.

    YAGO se desarrolla conjuntamente en el grupo DBWeb en la Universidad Télécom ParisTech, el grupo de Bases de Datos y Sistemas de Información en el Instituto Max Planck de Informática y Ambiverse.

    https://en.wikipedia.org/wiki/YAGO_(database)

    https://github.com/yago-naga/yago3

     

    ...

    Página Web

    /

    Publicado el 29.10.2015 por Ricardo Alonso Maturana

    What are the differences between a Graph database and a Triple store? (by Matt Allen in Quora)

    Graph Databases vs. RDF Triple Stores
    To summarize, both graph databases and triple stores are designed to store linked data. RDF is a specific kind of linked data that is queried using SPARQL, so it is fair to say that RDF triple stores are a kind of graph database. But, there are some subtle but important differences that are described below.
    How They Are Similar
    ·       Graph databases and rdf triple stores focus on the relationships between the data, often referred to as “linked data.” Data points are called nodes, and the relationship between one data point and another is called an edge.
    ·       A web of nodes and edges can be put together into interesting visualizations—a defining characteristic of graph databases.
    How They Are Different
    ·       Graph databases are more versatile with query languages:  Neo4J can run an RDF triple store and use SPARQL but generally focuses on its own proprietary language, Cypher. Other graph databases support G, GraphLog, GOOD, SoSQL, BiQL, SNQL, and more. RDF triple stores only use SPARQL as the query language.
    ·       Graph databases can store various types of graphs, including undirected graphs, weighted graphs, hypergraphs, etc. RDF triple stores focus solely on storing rows of RDF triples.
    ·       Graph databases are node, or property, centric whereas RDF triple stores are edge-centric. RDF triple stores are really just a list of graph edges, many of which are 'properties'  of a node and not critical to the graph structure itself.
    ·       Graph databases are better optimized for graph traversals (degrees of separation or shortest path algorithms). With RDF triple stores, the cost of traversing an edge tends to be logarithmic.
    ·       RDF triple stores also provide inferences on data but graph databases do not (e.g., if humans are a subclass of mammals and man is a subclass of humans, then it can be inferred that man is a subclass of mammals).
    ·       RDF triple stores are more synonymous with the “semantic web” and the standardized universe of knowledge being stored as RDF triples on DBpedia and other sources whereas graph databases are seen as more pragmatic rather than academic.

    ...

    Página Web

    /

    Compartido el 13.12.2014 por Ricardo Alonso Maturana

    ES dbpedia: Comparativa esDBpedia versión 2014

    Comparativa entre el número de instancias de la ontología esDbpedia para las clases más pobladas entre las versiones 3.9 y 2.014 en la que se muestras que éstas han crecido de una manera muy notable.

    ...

    Categorías:

    Página Web

    /

    Publicado el 12.11.2012 por Pablo Hermoso de Mendoza González

    Welcome to LDBC | Linked Data Benchmark Council

    Welcome to LDBC

    In the last years we have seen an explosion of massive amounts of graph shaped data coming from a variery of applications that are related to social networks like facebook, twitter, blogs and other on-line media and telecommunication networks. Furthermore, the W3C linking open data initiative has boosted the publication and interlinkage of a large number of datasets on the semantic web resulting to the Linked Data Cloud. These datasets with billions of RDF triples such as Wikipedia, U.S. Census bureau, CIA World Factbook, DBPedia, and government sites have been created and published online. Moreover, numerous datasets and vocabularies from e-science are published nowadays as RDF graphs most notably in life and earth sciences, astronomy in order to facilitate community annota- tion and interlinkage of both scientific and scholarly data of interest.

    Technology and bandwidth now provide the opportunities for compiling, publishing and sharing massive Linked Data datasets. A significant number of commercial semantic repositories (RDF databases with reasoner and query-engine) which are the cornerstone of the Semantic Web exist.

    Neverthless at the present time,

    • there is no comprehensive suite of benchmarks that encourage the advancement of technology by providing both academia and industry with clear targets for performance and functionality and
    • no independent authority for developing benchmarks and verifying the results of those engines. The same holds for the emerging field of noSQL graph databases, which share with RDF a graph data model and pattern- and pathoriented query languages.

    The Linked Data Benchmark Council (LDBC) project aims to provide a solution to this problem by making insightful the critical properties of graph and RDF data management technology, and stimulating progress through compettion. This is timely and urgent since non-relational data management is emerging as a critical need for the new data economy based on large, distributed, heterogeneous, and complexly structured data sets. This new data management paradigm also provides an opportunity for research results to impact young innovative companies working on RDF and graph data management to start playing a significant role in this new data economy.

    ...

    Vídeo

    /

    Publicado el 9.10.2012 por Equipo GNOSS

    Componentes de la Web Semántica

    Conoce más acerca de RDF, SPARQL y OWL, lenguajes esenciales para el funcionamiento de la Web Semántica: ¿Qué son y para qué sirven? Además, hablamos del caso DBPedia.org y de la infraestructura de la Web. Javier Solís, Gerente de Desarrollo de Nuevos Productos y Servicios de INFOTEC, platicó acerca de esto en SG Conference+Expo 2012 de la revista Software Gurú que se llevó a cabo en junio del 2012 en la Ciudad de México.

    ...

    Página Web

    /

    Publicado el 2.8.2012 por Equipo GNOSS

    Pundit, augment web pages with semantically structured annotations

     

    Pundit is a novel semantic annotation and augmentation tool. It enables users to create structured data while annotating web pages.

    Annotations span from simple comments to semantic links to web of data entities (as Freebase.com and Dbpedia.org), to fine granular cross-references and citations. Pundit can be configured to include custom controlled vocabularies. In other words, annotations can refer to precise entities and concepts as well as express precise relations among entities and contents. 

    Pundit is designed to enable groups of users to share their annotations and collaboratively create structured knowledge.

    Pundit has been developed by Semedia at Universita' Politecnica delle Marche within the SemLib EU project.

    ...

    Página Web

    /

    Publicado el 2.7.2012 por Pablo Hermoso de Mendoza González

    Datos enlazados. Link Open Data. Biblioteca Nacional España con Universidad Politécnica Madrid.

    El día 14 de diciembre 2011, a las 13:30, en el salón de actos de la BNE, presentaron esta iniciativa: Asunción Gómez-Pérez, catedrática de la UPM, Daniel Vila-Suero, jefe de Proyecto, UPM, Ricardo Santos, jefe de la Sección de Autoridades y Ana Manchado Mangas, jefa del Servicio de Proyectos Bibliográficos. Se contará asimismo con la inestimable participación de Gordon Dunsire, presidente del IFLA Namespace Group.

    El concepto de Linked Data o datos enlazados fue introducido por Tim Berners-Lee dentro del marco de la Web Semántica. Se refiere al método para mostrar, intercambiar y conectar datos. El objetivo del proyecto Linking Open Data desarrollado por el grupo de la W3C es ampliar la web mediante la publicación de bases de datos en RDF y mediante el establecimiento de enlaces RDF entre datos de diferentes fuentes. El proyecto Datos enlazados en bibliotecas, consiste, por tanto, en la transformación y publicación de los catálogos bibliográfico y de autoridades de la BNE en RDF, utilizando las ontologías o vocabularios estándares de la IFLA, con los objetivos de hacer que los datos sean accesibles en la Web Semántica y enlazarlos con otros conjuntos de datos de la nube como  VIAF, el Fichero de Autoridades Virtual Internacional, y en un futuro próximo con  DBpedia.

    Con esta iniciativa, la BNE se suma al reto de publicar los catálogos bibliográficos y de autoridades en formato RDF (Resource Description Framework) conforme a los principios de los Datos Enlazados.  De esta manera, España se adhiere a las iniciativas de otras bibliotecas que en otros países como Reino Unido y Alemania han comenzado recientemente.

    ...

    Página Web

    /

    Publicado el 2.4.2012 por Equipo GNOSS

    Wikidata, A Machine-Readable, User-Editable Database

    Wikidata es el nuevo proyecto de la Fundación Wikimedia. El proyecto consiste en construir  una base de datos de conocimiento semántica que pueda ser leída y editada por humanos y máquinas.

    Existen otros intentos de crear una base de datos semántica construida a partir de datos de Wikipedia por ejemplo, DBpedia, un esfuerzo comunitario para extraer el contenido estructurado de Wikipedia y publicarlo en la Web. La diferencia de Wikidata es que los datos no sólo se pondrán a disposición del usuario, sino que también se hará editable por cualquier persona.

    ...

    Página Web

    /

    Publicado el 29.3.2012 por Equipo GNOSS

    map4rdf

    tipo de documento Página Web

    map4rdf

    Recientemente, hemos visto un gran incremento en la cantidad de datos geoespaciales que están publicados utilizando RDF y los principios de Linked Data. Esfuerzos como el W3C Geo XG, y más recientemente la iniciativa GeoSPARQL están proporcionando los vocabularios necesarios para publicar este tipo de información en la Web de Datos. map4rdf es un herramienta para explorar y visualizar conjuntos de datos RDF enriquecidos con información geométrica.

    map4rdf es un software open source. Sólo configuralo para usar tu SPARQL endpoint y proporciona a tus usuarios con una buen visualización en un mapa de tus datos. Los aspectos geoespaciales de los datos se pueden modelar usando o el modelo de datos del W3C Geo XG o el modelo de datos propuesto por GeoLinked Data (.es).

    Para descargarlo, utilice el siguiente enlace.

    Puede acceder a una demo en la siguiente dirección (utilizando un endpoint de GeoLinkedData).

    Puede acceder a una demo en la siguiente dirección (utilizando un endpoint de DBpedia).

    ...