facetas

Recursos > data

    sortFiltrar Ordenar
    87 resultados

    Página Web

    /

    Publicado el 21.2.2019 por Equipo GNOSS

    Gartner sitúa Graph Analytics entre las cinco primeras tendencias tecnológicas en 2019

    La consultora Gartner ha aprovechado la celebración de la cumbre Gartner Data & Analytics, celebrada en Sydney en febrero, para identificar las principales tendencias tecnológicas de datos y análisis que contarán con un gran potencial entre los próximos tres a cinco años, marcando las futuras líneas de investigación y desarrollo en este ámbito.  

    Dentro de este ránking de tendencias encontramos en la cuarta posición la Inteligencia Artificial Explicable, implementada cada vez más para aumentar y remplazar la toma de decisiones humanas. La Inteligencia Artificial Explicable en la ciencia de datos y las plataformas de aprendizaje automático (ML), por ejemplo, sería capaz de generar automáticamente una explicación de los modelos en términos de precisión, atributos y estadísticas en lenguaje natural.

    En la quinta posición se sitúa Graph Analytics, conjunto de técnicas analíticas que permite la exploración de relaciones entre entidades de interés, tales como organizaciones, personas y transacciones.

    La aplicación del procesamiento de gráficos y los DBMS de gráficos crecerá al 100% anual hasta 2022 para acelerar continuamente la preparación de datos y permitir una ciencia de datos más compleja y adaptable. 

    En su intervención, Rita Sallam, vicepresidente de investigación de Gartner, ha dejado patente el potencial impacto que los líderes de datos y análisis pueden tener en el negocio de estas tendencias, adaptando en consecuencia a ello modelos de negocio y operaciones.

    Asimismo, Gartner recomienda que los líderes de datos y análisis hablen con los líderes empresariales sobre sus prioridades comerciales y exploren cómo estas tendencias pueden posibilitar nuevas posibilidades de negocio.

     

    ‘TOP 10’ de Tendencias Tecnológicas:

    N ° 1: Análisis Aumentado

    Nº 2: Gestión de datos aumentados

    Nº 3: Inteligencia continua

    Nº 4: Inteligencia Artificial Explicable

    Nº 5: Graph Analytics                                                   

    Nº 6: Red de datos

    Nº 7: Procesamiento de Lenguaje Natural (NLP) / Análisis Conversacional

    Nº 8: Aprendizaje automático (ML) e Inteligencia Artificial  con soluciones comerciales

    Nº 9: Blockchain

    Nº 10: Servidores de memoria persistentes

     

    Las próximas cumbres Gartner Data & Analytics 2019 se llevarán a cabo del 4 al 6 de marzo en Londres , del 18 al 21 de marzo en Orlando , del 29 al 30 de mayo en Sao Paulo , del 10 al 11 de junio en Mumbai , del 11 al 12 de septiembre en la Ciudad de México y del 19 al 19 de octubre. 20 en Frankfurt. 

    ...

    Página Web

    /

    Publicado el 7.3.2016 por Equipo GNOSS

    Data on the Web Best Practices Working Group. W3C.

    La misión del grupo de trabajo Data on the Web Best Practices, que forma parte de Data Activity, es:

    1. Desarrollar el ecosistema de datos abiertos, facilitando la mejor comunicación posible entre desarrolladores y publicadores.
    2. Proporcionar guías a los publicadores, para mejorar la consistencia en la gestión de los datos, y promoviendo su reutilización.
    3. Fomentar la confianza en los datos entre los desarrolladores, sea cual sea la tecnología que usen, aumentando el potencial para innovaciones genuinas.

    Las guías y recomendaciones tendrán 2 formas: un conjunto de buenas prácticas de aplicación en múltiples tecnologías, y vocabularios que aún no existen, pero que son necesarios para soportar el ecosistema de datos en la Web. En este sentido, están disponibles los siguientes borradores:

    ...

    Pdf

    /

    Publicado el 19.8.2015 por Equipo GNOSS

    El análisis del aprendizaje tiene mucho que ver con los datos brutos y la manera de darles sentido en el marco de la experiencia, el comportamiento y los conocimientos del alumno. En este artículo abogamos por una relación más estrecha entre el campo del análisis del aprendizaje y el de los datos asociados. 

    A nuestro modo de ver, esto constituye un nivel ideal de gestión de datos para el análisis del aprendizaje. Basándonos en la experiencia de haber organizado el tutorial 'Utilización de los datos asociados en el análisis del aprendizaje' en la conferencia sobre análisis del aprendizaje y conocimientos, debatimos las tendencias existentes en la utilización de datos asociados y tecnologías de red semánticas, tanto en la educación como en el ámbito del análisis del aprendizaje. Consideramos que las conexiones incipientes entre ambos campos siguen siendo en estos momentos muchos menos prominentes de lo que hubiera cabido esperar, habida cuenta de la naturaleza complementaria de las tecnologías y prácticas examinadas. Por ello, afirmamos que son necesarios esfuerzos específicos, como los que se materializaron durante el tutorial y el trabajo en la acción de apoyo LinkedUP, para lograr los beneficios potenciales que podría entrañar la combinación del análisis del aprendizaje con los datos asociados.

    Fuente: http://www.openeducationeuropa.eu/en/node/134779

    ...

    Página Web

    /

    Publicado el 3.3.2015 por Equipo GNOSS

    Data on the Web Best Practices

    Yesterday, Open Data reached a new milestone with the publication of the W3C’s first public working draft of its Data on the Web Best Practices. Open Data is spreading across the globe and transforming the way data is collected, published, and used. But all of this is happening without well-documented standards, leading to data published with inconsistent metadata, lacking official documentation of approval processes, corroboration of sources, and with conflicting terms of use. Often Open Data is hard to compare to other sources, even across administrative departments located in the same building. Open Data from more than one source has to be aggregated, normalized, cleansed, checked for quality, verified for authenticity, and validated for terms of use, at huge expense before it can be analyzed.

    ...

    Categorías:

    Pdf

    /

    Publicado el 2.7.2014 por Pablo Hermoso de Mendoza González

    En este interesante artículo escrito por miembros del departamento de Servicios Web (CMS & Search) de la empresa alemana Daimler AG (Mercedes) y el Instituto de Informática de la Universidad de Leipzig, los autores plantean cómo el enfoque de integración de datos comúnmente aceptado y basado en XML, web services y arquitecturas orientadas a Servicios (SOA) puede ser superado por un enfoque y la aplicación de las posibilidades que brinda el paradigma de los datos enlazables (Linked Data) mostrando ejemplos y casos de uso en diversos ámbitos de la empresa.

    ...

    Página Web

    /

    Publicado el 12.6.2014 por Pablo Hermoso de Mendoza González

    Cambridge University Library delivers linked open data and enrichments

    Case Study: Cambridge University Library delivers linked open data and enrichments

    In the lead-up to the RLUK Linked Open Data (LOD) Hackathon on Wednesday 14th May in London, The European Library is running an awareness campaign to promote LOD innovations in libraries across Europe. This case study is one of a series that highlights achievements of pioneering libraries to date in this exciting area.

    The Cambridge Open Metadata (COMET) Project was funded by the JISC Infrastructure for Resource Discovery Programme over a six-month period in 2011. COMET aimed to improve the visibility of Cambridge University Library's collections - which include Darwin's correspondence and Newton's manuscripts - by adopting a Linked Data approach. In partnership with OCLC, it also explored the value of linked data in catalogue enrichment.

     

    ...

    Página Web

    /

    Publicado el 18.3.2014 por Equipo GNOSS

    ¿Es la web semántica el futuro de Big Data?

    Estamos ante la era Big Data. Internet of Things es la tendencia que más está despuntando actualmente y a la vez será una de las fuentes de información que mayor volumen de datos aportará. Nos encontramos ante un caos de información que será cada vez más complicado de gestionar.

    Estos datos están almacenados de cualquier manera, sin estructura o semiestructurados. ¿Pero qué pasa si a toda esta cantidad de datos le damos significado? De hecho, son sólo comprensibles para nosotros ya que son cadenas de texto, pero ¿y si queremos que las máquinas también comprendan esta información?

    Tim Berners-Lee, en 1998 ya definió la web semántica, o Web 3.0, como una web de datos global, cuya objetivo no sólo es ser útil para la comunicación entre humanos, sino también entre máquinas. Pero para que lo entiendan estas máquinas, para darle significado, tenemos que representar estos datos no sólo como cadenas de texto, sino como cosas. Y estas cosas, conectarlas y enlazarlas entre sí. Básicamente, hacer una "integración semántica" de los datos, basándonos en el modelo de la jerarquía o pirámide DIKW (Data, Information, Knowledge and Wisdom) para representar relaciones funcionales y/o estructurales entre datos, información, conocimiento y sabiduría.

    ...

    Página Web

    /

    Publicado el 4.12.2013 por Equipo GNOSS

    Linked Data: El protocolo para implementar la Web Semántica

    Este video nos explica la relación entre Linked Data y Web Semántica y como los datos enlazados nos permiten la interconexión de datos semánticos.

    ...

    Página Web

    /

    Publicado el 31.10.2013 por Pablo Hermoso de Mendoza González

    Linked Data tools: Semantic Web for the masses

    Semantic Web technologies have immense potential to transform the Internet into a distributed reasoning machine that will not only execute extremely precise searches, but will also have the ability to analyze the data it finds to create new knowledge. This paper examines the state of Semantic Web (also known as Linked Data) tools and infrastructure to determine whether semantic technologies are sufficiently mature for non–expert use, and to identify some of the obstacles to global Linked Data implementation.

    ...

    Pdf

    /

    Publicado el 19.7.2013 por Pablo Hermoso de Mendoza González

    Bigtable is a distributed storage system for managing structured data that is designed to scale to a very
    large size: petabytes of data across thousands of commodity servers. Many projects at Google store data
    in Bigtable, including web indexing, Google Earth, and Google Fi-nance.
     
    These applications place very different demands on Bigtable, both in terms of data size (from URLs to web
    pages to satellite imagery) and latency requirements.

    ...

    Categorías: