Quantcast
Channel: Business Intelligence y Big Data: ¡Aprende Gratis sobre Analytics!
Viewing all 575 articles
Browse latest View live

Como sacar todo el partido a los mapas en tus visualizaciones


STCard, a free license way to create powerful Scorecards

$
0
0


The improvements in this version of STCard, an open source based solution, are focused on user interface for panel and dashboard and also some enhancement in performance and close some old bugs:

- Import with ETL
- New KPIs always in red bug
- Tooltips and characters solved
- Export to PDF
- Modify colors of new scorecard
- Some other minus bugs...

It works with Pentaho and embeded in web applications

You can manage your organization with a powerful KPIs control with Balance Scorecard using STCard

You can see it in action in this Pentaho Demo Online and as a part of LinceBI suite

STCard doesn´t requiere anual license, you can manage unlimited users and it´s open source based. 

STCard includes professional services (training, support and maintenance, docs and bug resolution - so, you have high enterprise level guaranteed -)

Interested? contact Stratebi or LinceBI



See a Video Demo:




About main functionalities:

STCard works on top of Pentaho, is the best tool for managing your KPIs (Key Performance Indicators), targets an keep track of your Balance Scorecard strategy









Fully integrated with Pentaho CE, you can leverage all the power of this Open Source BI Suite



STCard is an open source tool developed by StrateBI for the creation, management and analysis of Scorecards.
A Scorecard is a global management system within an organization that allows you to have a view of it based on a number of perspectives. All these as a whole define the vision and strategy of the organization.
To define a Scorecard you have to define a clear strategy:
  • Strategic Objectives for the units of the organization.
  • Indicators (KPI’s) that mark the fulfillment of the strategic objectives.
The main features of STCard are:
  • Flexibility: A Scorecard is always referred to an organization as a whole, but with STCard we can create a scorecard for a specific area of the organization. For example:Treasury Financial Area, Consolidation, Suppliers, etc. On the other hand, the concept of flexibility is applicable to the creation of a scorecard in terms of the number of strategic perspectives and objectives. As many as you like. The philosophy of Kaplan and Norton is not limited to 4 perspectives: customer, financial, internal business procedures and learning and growth. You can create as you need
  • Flexibility does not break with the original philosophy. A scorecard in STCAD consists of a weighted hierarchical structure of 3 levels:
    • Perspective: from what point of view we will see our system. For example, financial, quality, customers, IT, etc.
    • Strategic Objective: what is our goal. For example, increase profitability, customer loyalty, incentive and motivation HR, etc.
    • Indicator (KPI): the measure or metric. Indicators can be quantitative or qualitative (confirmation / domain values), and these always have a real value and a target value.
For the launch of the ScoreCard we can consider three scenarios:
  • This scenario has a rapid implementation, and only requires the definition of a load processes to obtain the information of the indicators of the organization and adapt it to STCard.
  • The organization lacks a system / repository of indicators.
    This variant requires more consulting work, because in the organization, first, a pure BI project must be carried out to obtain those indicators to be dealt with later in STCARD.
    For example: data sources; ETL processes; System / repository of indicators; Load processes in STCard.
  • Immediate start-up:
    It is the fastest alternative, only requires installation / configuration and training. Data management is done through Excel templates. No additional consulting work required.
    Users set values through Excel templates, where data is filled. These values are loaded into STCARD and after this, it is the users who interact with STCARD.

These are the main features of STCard:



Cual es el orden correcto para hacer un proyecto de Machine Learning?

Videotutorial: Usando R para Machine Learning con PowerBI

$
0
0

Si te gusta el Business Intelligence, Machine Learning y conoces algo de R, no te puedes perder este Videotutorial:



Temario del Videotutorial:

1º Posibilidades de R dentro de Power BI 
2º Instalar R y RStudio 
3º Matriz de Correlación para el sector Retail 
4º Árbol Decisión Titanic 
5º Clustering K-Means Estados Unidos 
6º Clustering DBSCAN Estados Unidos para detectar Outliers 
7º Forecasting Exponencial Smoothing Births Nacimientos 
8º Descomposición de Series Temporales Nacimientos 
9º Power BI R Visual con ggplot2

Para Saber más de PowerBI:


Big Data para PowerBI



Power BI es un conjunto de herramientas Business Intelligence (BI) desarrolladas por Microsoft. De reciente aparición, gracias a su simplicidad y potencia se ha hecho un un hueco entre las grandes del mercado como Tableau, Pentaho o Microstrategy.  Al igual que estas últimas, implementa la filosofía de Autoservicio para el usuario final (Self Service BI) llevada al extremo de la sencillez, pero con un gran número de características...

Working together PowerBI with the best open source solutions



Here you can see a nice sample combining PowerBI with open source based Business Intelligence solutions, like LinceBI, in order to provide the most complete BI solution with an affordable cost - Predefined Dashboards - Adhoc Reporting - OLAP Analysis - Adhoc Dashboarding - Scorecards More info: - PowerBI functionalities - PowerBI traini...


Comparativa de Costes Tableau vs PowerBI



  Os dejamos un documento listo para descargar, con una comparativa muy completa de costes entre Tableau y PowerBI (hay que decir que el informe ha sido encargado por Tableau, por lo que puede tener cierto sesgo).  Por ejemplo, en cuanto al esfuerzo de este tipo de proyectos, si tenemos en cuenta que ambas son herramientas de Data Discovery (usuario final), no se tiene suficientemente en cuenta la parte más importante, el modelado,...

List of Open Source Business Intelligence tools

$
0
0



Here you can find an updated list of main business intelligence open source tools. If you know any other, don´t hesitate to write us

- Talend, including ETL, Data quality and MDM. Versions OS y Enterprise

- Pentaho, including Kettle, Mondrian, JFreeReport and Weka. Versions OS y Enterprise

- BIRT, for reporting

- Seal Report, for reporting

- LinceBI, including Kettle, Mondrian, STDashboard, STCard and STPivot

- Jasper Reports, including iReport. Versions OS y Enterprise

- Jedox Base, Palo core and Jedox Base. Versions OS y Enterprise

- Saiku, for OLAP Analysis, including Mondrian. Versions OS y Enterprise

- SpagoBI, including Talend, Mondrian, JPivot and Palo

- Knime, including Knime connectors

- Kibana, for elasticsearch data

Los mejores posts de TodoBI durante el verano

$
0
0
Este verano os hemos traído material muy interesante, con muchos documentos y tutoriales. Aquí tenéis un resumen:


Videotutorial: Usando R para Machine Learning con PowerBI



Si te gusta el Business Intelligence, Machine Learning y conoces algo de R, no te puedes perder este Videotutorial: Temario del Videotutorial: 1º Posibilidades de R dentro de Power BI  2º Instalar R y RStudio  3º Matriz de Correlación para el sector Retail  4º Árbol Decisión Titanic  5º Clustering K-Means Estados Unidos  6º Clustering DBSCAN Estados Unidos para detectar Outliers  7º Forecasting Exponencial Smoothing...


STCard, a free license way to create powerful Scorecards



The improvements in this version of STCard, an open source based solution, are focused on user interface for panel and dashboard and also some enhancement in performance and close some old bugs: - Import with ETL - New KPIs always in red bug - Tooltips and characters solved - Export to PDF - Modify colors of new scorecard - Some other minus bugs... It works with Pentaho and embeded in web applications You can manage your organization...


Como sacar todo el partido a los mapas en tus visualizaciones



Muy interesante lo que podéis encontrar en este enlace. Y todo Open Source. Descargar imagen en PDF Como construir diversos tipos de mapas (incluye códi...


Caso Practico: trabajando con APIs y Talend



En este ejercicio practico, vamos a enriquecer el flujo de datos con API de datos estadísticos. Descargar Documento completo 1      Introducción El propósito de este documento es demostrar como con un pequeño ejemplo se puede establecer un flujo de datos continuo entre la API Idescat y la herramienta Talend. El Idescat expone parte de sus datos a través de una colección de API de tipo REST. Además, la...


Las 50 claves para aprender y conocer PowerBI



Si tenéis curiosidad por conocer sobre todas las posibilidades de PowerBI, como funciona, integración, costes, etc... no te puedes perder este documento.  Altamente recomendable!!! También te puede interesar: Las 50 claves para conocer Futbol Analytics julio 18, 2018  Analytics, big data, open source, Stratebi, Tablero Futbolero  No comments Os presentamos un estudio muy...


Ejercicio practico de Machine Learning con Jupyter Notebooks, Anaconda y Python 3



Que mejor forma que aprender de Machine Learning, con algunas de las tecnologías mas potentes y completas, que mediante la realización de un buen ejercicio práctico. Podéis seguir el tutorial práctico en el video y también utilizar la presentación. Esperamos que os sea útil!! ...


Descarga Paper gratuito: Funciones avanzadas de Vertica para Machine Learning



Tenéis a vuestra disposición un paper con funciones avanzadas de Vertica para Machine Learning. Si te interesa, escríbenos y te lo mandamos Funciones de Vertica para el Machine Learning. Ya vienen con Vertica, por lo que: i), no requieren programación ni instalación,  ii), son más eficientes que otras opciones como la integración con Python/Pandas,  iii) se aplican sobre tablas o vistas,  iv) implementan los algoritmos...



Descarga Paper gratuito: Zero to beautiful (Data visualization)



Quieres conocer la mejor manera de contar una historia a través de los datos y la visualización? Pues no te puedes perder este white paper que nos ofrecen desde PowerBI y que te puedes descargar gratuitamente Quieres saber más sobre PowerBI: Demos, Formación, Desarrollo... Info en español Using data visualization to tell a story: You know which charts best represent your data, and you understand best practices for sharing insights. Now it’s...


Formacion Data Engineer: Machine Learning con Spark



Uno de los capítulos más interesante del curso 'Curso de Data Engineers', de nuestros compañeros de Stratebi es el 11. Machine Learning con Spark Este curso incluye ejercicios prácticos sobre nuestro Cluster. Os dejamos unas pinceladas del contenido de este capítulo: ...


Tips y Tecnicas de optimización de Vertica con Talend



Os traemos unos cuantos trucos y recomendaciones sobre dos de nuestras herramientas favoritas: Vertica y Talend Configuring Talend for Use with Vertica To configure Talend for use with Vertica, you must understand: Using Talend Components for Vertica Using the Talend SQL Builder Enabling Parallelization in Talend ...


Aprende Machine Learning con Facebook



Gran iniciativa de Facebook, que nos explica en 6 videos como aplicar Machine Learning en casos concretos, siguiendo el siguiente patrón: 1. Problem definition2. Data3. Evaluation4. Features5. Model6. Experimentation Muy recomenda...


Las 50 claves para conocer Futbol Analytics



Os presentamos un estudio muy interesante sobre Fútbol Analytics, un área que está teniendo un crecimiento espectacular, gracias al uso de Big Data, Machine Learning, Internet of Things, etc...  Temas que nos apasionan en este Portal.  Nuestros compañeros de Stratebi, especialistas en este ámbito y que ya han colaborado con algún club de fútbol de Primera División, os dan las 50 claves para estar al día en Fútbol Analytics También...


Explicacion sencilla de arquitecturas Business Intelligence



En este post muy útil, se hace un repaso a las diferentes alternativas en que la información puede ser consumida por los usuarios y las diferentes formas de almacenamiento de la misma.  Habría que decir, que todas ellas son formas de analizar la información y tomar decisiones, esto es, Business Intelligence; aunque en rigor, sólo las más óptimas en cuanto a uso de Data Marts DW y optimización del acceso por los usuarios, se consideran de...



Google Dataset Search

Las 9 verdades para el futuro del Big Data

$
0
0
 

El respetado Seth Grimes hace un esbozo de lo que considera 9 puntos claves a la hora de pensar en el futuro del Big Data:

1. "Correlation is not causation."
2. "All models are wrong, but some are useful."
3. Big data knows (almost) all.
4. "80% of business-relevant information originates in unstructured form, primarily text, (but also video, images, and audio)."
5. "It's not information overload. It's filter failure."
6. "The same meaning can be expressed in many different ways, and the same expression can express many different meanings."
7. "Big data is not about the data! The value in big data [is in] the analytics."
8. "Intuition is as important as ever."
9. The future of big data is synthesis and sensemaking.       

 

Business Intelligence Tools 'White Paper' comparison

$
0
0


Great paper you can download, where you can compare several Business Intelligence tools




 








You can check this other very useful and complete study of several Business Intelligence tools



Why Business Intelligence, Big Data and CRM Open Source are importants?

Data Studio is now generally available

$
0
0


Data Studio, Google’s free data visualization and reporting product, is out of beta and now generally available

Data Studio, part of Google Marketing Platform and closely integrated with Google Cloud, allows you to easily access data from Google Analytics, Google Ads, Display & Video 360, Search Ads 360, YouTube Analytics, Google Sheets, Google BigQuery and over 500 more data sources, both Google and non-Google, to visualize and interactively explore data. 

It allows you to easily share your insights with anyone in your organization. And beyond just sharing, Data Studio offers seamless real-time collaboration with others—whether you’re sitting across the room, or across the world


New Pentaho Roadmap

$
0
0

Here you have fresh news about future Pentaho roadmap: Pentaho, 8.2, Pentaho 9 thanks to our friend Nelson Sousa, @UbiquisBI




Hace 8 ho

Google Data Studio, analisis de la herramienta

$
0
0

Hace unos días os contábamos que Google ya había dejado disponible Data Studio, saliendo del beta. Ahora os contamos primeras impresiones. 

Lo primero: no es un ETL tipo Pentaho Data Integration o Talend, se trata más bien de una herramienta 'data preparation', muy útil para el ecosistema Google, pero que aun debe madurar bastante

Introducción

Google Data Studio se basa en tres principios: conexión con una fuente de datos, generación de informes y distribución.
Conexión

Google permite una gran cantidad de conexiones a diversas fuentes de datos. Los distintos conectores están divididos en tres secciones:

  • Google Connectors: desarrollados por google.
  • Partner Connectors: desarrollados por los partner Data Studio.
  • Open Source Connectors: desarrollados por la comunidad.
Por parte de google se permiten conectores tradicionales JDBC a bbdd relacionales (PostgreSQL, MySQL). Adicionalmente, permite la conexión contadas las herramientas de Google Cloud y una gran cantidad de APIs provenientes de sus Partners.

Informes


Antes de generar informes Data Studio permite realizar cierto tratamiento de datos:


En este punto se observa que, la herramienta necesita de más desarrollo debido a:

Tras seleccionar los campos del datasource se puede proceder a la creación de informe:


La interfaz recuerda a PowerBI, sin tener la mitad de las funcionalidades disponibles en el mismo. Aunque, existe cierto potencial en la capacidad para cruzar fuentes de datos distintas desde la opción COMBINAR DATOS, pero conlleva una correcta estructuración previa de los datos (que habrá que realizar con otra herramienta: PDI/Talend).

Se ha realizado una pequeña Demo utilizando los servicios disponibles desde la API de Star Wars:


En la demo se ha podido observar que carece de la posibilidad de moverse entre las dimensiones, es decir, no se puede hacer drill en las gráficas solo disponemos de los filtros definidos por el usuario.

Distribución


Uno de los puntos positivos encontrados es que permite compartir la edición con otros usuarios de google y trabajar en el mismo informe en paralelo. Para ello simplemente es necesario generar un enlace con permisos de edición.


Conclusión


En conclusión, Google Data Studio es una herramienta en proceso de ser terminada, la funcionalidad actual es tener la capacidad de crear informes con datos de prueba suministrados por APIs o Datasources previamente estructurados. 

Por lo tanto, no se puede comparar a una herramienta ETL como Talend o PDI, más bien, se podría comparar a STDasboard/PowerBI, etc... que permite la generación de Dashboards/Informes sin que el usuario tenga que depender de conocimientos previos.

Como Pentaho ayuda a los cientificos de datos

$
0
0

Hace ya algunas semanas os veníamos comentando sobre las mejoras que estaba realizando Pentaho para facilitar la creación y ejecución de Machine Learning




También os hablábamos de como habían introducido el concepto de Machine Intelligence

Hoy, vamos un paso más allá y tras la celebración del reciente evento HitachiNext, en donde se dieron una pinceladas muy interesantes en lo que respecta a como Pentaho facilita y ayuda al uso de Machine Learning y que os resumimos a continuación

1) Integracion con Jupyter Notebooks (novedades Jupyter en PDI -Kettle-)

Hace poco os contábamos y mostrábamos en un video como poder usar Jupyter para nuestros proyectos de Machine Learning


Pentaho ha introducido una mejora para que los ingenieros de datos accedan, limpien, integren y entreguen datos como un servicio para que los científicos de datos los utilicen. 

En lugar de crear y mantener manualmente scripts únicos para acceder, modificar y entregar los outputs de datos, los científicos de datos ahora pueden concentrarse en la parte más intelectualmente gratificante de sus trabajos: la exploración de modelos. 

Pueden concentrarse en desarrollar análisis perspicaces y precisos en el IDE familiar de un cuaderno Jupyter, una herramienta muy potente y popular para la ciencia contemporánea de datos, y dejar la preparación e integración de datos a los ingenieros de datos. 

Al usar la interfaz de arrastrar y soltar en Pentaho Data Integration (PDI), los ingenieros de datos pueden crear transformaciones que resulten en fuentes de datos gobernadas que pueden registrar en un data mart para promover la reutilización entre los equipos de ingeniería de datos y ciencia de datos, lo que fomenta una relación de trabajo más colaborativa. 

En esta imagen se ve el step: 




2) Orchestrating TensorFlow y Keras

Aunque los ingenieros de datos tienen un profundo conocimiento y experiencia en el almacenamiento de datos, tecnologías SQL, NoSQL y Hadoop, en la mayoría de los casos no tienen las habilidades de codificación de Python o R. 



Lo más probable es que no tengan las habilidades matemáticas y estadísticas avanzadas requeridas para ajustar el aprendizaje automático y los modelos de aprendizaje profundo para obtener los modelos más precisos en producción más rápido. 

Por ello, se ha añadido un paso que facilita a los Data Scientist ejecutar Machine Learning de forma sencilla


3) Mejora del trabajo con modelos

Normalmente, los modelos se degradan en precisión tan pronto como llegan a los datos de producción. 

Se ha introducido un nuevo paso de ejecución de Python, y los usuarios pueden realizar actualizaciones a los modelos utilizando datos de producción. 



Los ingenieros de datos pueden obtener información sobre el uso del modelo, ejecutar pruebas, revisar las estadísticas de precisión del modelo e intercambiar fácilmente los modelos con la mayor precisión. Al mantener los modelos más precisos en producción, será más fácil tomar mejores decisiones y reducir el riesgo de equivocación

Saber más? el equipo de Stratebi podrá ayudarte

Workshop Big Data Analytics en Barcelona, miercoles 10 de Octubre

$
0
0


El próximo miércoles 10 de Octubre (Barcelona) realizamos en TodoBI, con la colaboración de nuestros compañeros de Stratebi, un interesante y práctico Workshop para aprender sobre las más modernas y potentes tecnologías Big Data Analytics (la mayor parte open source) que están siendo usados por grandes organizaciones

Aquí tienes toda la información del Workshop Big Data Analytics para inscribirse




TEMARIO WORKSHOP ANALYTICS & BIG DATA


0. Introducción al Workshop por Emilio Arias (Editor TodoBI.com y profesor Master BI-Big Data)

    1. Introducción a Analytics & Big Data
    a. Directrices principales en las que se basa el Big Data y Analytics.
    b. La relación entre Big Data, BI & Data Science.
    c. Análisis de la implantación y casos de uso Big Data en grandes empresas.

      2. Arquitecturas Big Data y Analytics
      a. Introducción y clasificación de las principales tecnologías Big Data: Hadoop, columnares MPP y otras No-SQL.
      b. Big Data Demos: Demostraciones interactivas de casos de uso usando las tecnologías anteriores.
      c. Big Data Analytics Stack: Solución completa de StrateBI para la implementación de un Data Lake.

        3. Apache Kylin: Consultas analíticas sub-segundo en Hadoop sobre billones de filas
        a. Arquitectura y características principales.
        b. Demostración práctica del funcionamiento de Kylin.
        c. Caso de uso: Marketing digital.

          5. Microfocus Vertica: Tecnología columnar y MPP para el Big Data estructurado.
          a. Arquitectura y características principales.
          b. Demostración práctica del uso de Vertica.
          c. Caso de uso: Sector Retail.

            6. Benchmark soluciones Big Data OLAP y conclusiones.

              Download free book about Web Mapping

              $
              0
              0


              Great to see this online free book from Michael Dorman: Introduction to web mapping

              Download in PDF


              INDEX:

              Introduction

              • 0.1 What is web mapping?
              • 0.2 What is JavaScript?
              • 0.3 Why use JavaScript for web mapping?
              • 0.4 Learning objectives
              • 0.5 Software
              • 0.6 Background knowledge
              • 0.7 Online version
              • 0.8 Acknowledgments

              I Introduction to Web Technologies

              • 1 HTML
              • 1.1 How do people access the web?
              • 1.1.1 Browsers
              • 1.1.2 Web servers
              • 1.2 Web pages
              • 1.3 Text editors
              • 1.4 What is HTML?
              • 1.4.1 Overview
              • 1.4.2 HTML comments
              • 1.4.3 Block vs. Inline
              • 1.5 Common HTML elements
              • 1.5.1 Structure
              • 1.5.2 Title and metadata
              • 1.5.3 Styling and Scripts
              • 1.5.4 Headings and paragraphs
              • 1.5.5 Font formatting
              • 1.5.6 Spacing
              • 1.5.7 Lists
              • 1.5.8 Links
              • 1.5.9 Images
              • 1.5.10 Tables
              • 1.5.11 Grouping
              • 1.5.12 Input elements
              • 1.6 id, class and style attributes
              • 1.6.1 id
              • 1.6.2 class
              • 1.6.3 style
              • 1.7 Code layout
              • 1.8 Inspecting elements
              • 1.9 Exercise

              2 CSS

              • 2.1 What is CSS?
              • 2.2 CSS rules
              • 2.3 CSS selectors
              • 2.3.1 Type selector
              • 2.3.2 Class selector
              • 2.3.3 ID selector
              • 2.3.4 Descendant selector
              • 2.4 CSS conflicts
              • 2.5 CSS inheritance
              • 2.6 Linking CSS to HTML
              • 2.6.1 Inline CSS
              • 2.6.2 Embedded CSS
              • 2.6.3 External CSS
              • 2.7 CSS properties
              • 2.7.1 Color
              • 2.7.2 Text
              • 2.7.3 Boxes
              • 2.8 Example: Hurricane scale
              • 2.9 Example: Map Description
              • 2.10 Exercise

              3 JavaScript Basics

              • 3.1 What is JavaScript?
              • 3.2 Client-side vs. server-side
              • 3.3 JavaScript console
              • 3.4 Assignment
              • 3.5 Data types
              • 3.5.1 Primitive data types
              • 3.5.2 Objects
              • 3.5.3 Checking type of variables
              • 3.6 Functions
              • 3.7 Methods
              • 3.7.1 Array methods
              • 3.8 Scope
              • 3.9 Flow control
              • 3.9.1 Conditionals
              • 3.9.2 Loops
              • 3.10 JavaScript Object Notation (JSON)
              • 3.10.1 JSON
              • 3.10.2 GeoJSON
              • 3.11 Exercise

              4 JavaScript Interactivity

              • 4.1 The Document Object Model (DOM)
              • 4.2 Accessing and modifying elements
              • 4.2.1 Accessing elements
              • 4.2.2 Modifying elements
              • 4.2.3 Event Listeners
              • 4.2.4 Hello example
              • 4.2.5 Poles example
              • 4.3 jQuery
              • 4.4 Including the jQuery library
              • 4.4.1 Including a library
              • 4.4.2 Loading a local script
              • 4.4.3 Loading a remote script
              • 4.5 Selecting elements
              • 4.6 Operating on selection
              • 4.6.1 .html()
              • 4.6.2 .text()
              • 4.6.3 .append()
              • 4.6.4 .prepend()
              • 4.6.5 .attr()
              • 4.6.6 .val()
              • 4.7 Adding event listeners
              • 4.8 Hello example
              • 4.9 Poles example
              • 4.10 The event object
              • 4.11 Iteration over objects
              • 4.12 Modifying page based on data
              • 4.13 Working with user input
              • 4.14 Exercise

              5 Web Servers

              • 5.1 Introduction
              • 5.2 Web servers
              • 5.3 Communicating through HTTP
              • 5.3.1 Web protocols and HTTP
              • 5.3.2 HTTP methods
              • 5.4 Static vs. dynamic servers
              • 5.4.1 Overview
              • 5.4.2 Static servers
              • 5.4.3 Dynamic servers
              • 5.4.4 Software
              • 5.4.5 Practical considerations
              • 5.5 URLs and file structure
              • 5.5.1 URLs and index.html
              • 5.5.2 File structure
              • 5.5.3 Relative paths
              • 5.5.4 CSS and JavaScript
              • 5.6 Running a static server
              • 5.6.1 Local with Python
              • 5.6.2 Remote with GitHub Pages
              • II Web Mapping with Leaflet

              6 Leaflet

              • 6.1 Introduction
              • 6.2 What is a web map?
              • 6.3 What is Leaflet?
              • 6.4 Alternatives to Leaflet
              • 6.5 Creating a basic web map
              • 6.5.1 Web page setup
              • 6.5.2 Including Leaflet CSS & JS
              • 6.5.3 Adding map
              • 6.5.4 Creating a map object
              • 6.5.5 What are tile layers?
              • 6.5.6 Adding a tile layer
              • 6.5.7 Tile layer providers
              • 6.6 Adding vector layers
              • 6.6.1 Adding markers
              • 6.6.2 Adding lines
              • 6.6.3 Adding polygons
              • 6.6.4 Other vector layer types
              • 6.7 Adding popups
              • 6.8 Adding a description
              • 6.9 Introducing map events
              • 6.10 Exercise

              7 GeoJSON

              • 7.1 What is GeoJSON?
              • 7.2 GeoJSON structure
              • 7.2.1 Overview
              • 7.2.2 Geometries
              • 7.2.3 Features
              • 7.2.4 Feature collections
              • 7.3 Editing GeoJSON
              • 7.3.1 geojson.io
              • 7.3.2 mapshaper
              • 7.3.3 Formatting JSON
              • 7.4 Adding GeoJSON to Leaflet map
              • 7.5 GeoJSON viewer
              • 7.5.1 HTML and CSS
              • 7.5.2 Base map
              • 7.5.3 Adding an event listener
              • 7.5.4 Using layer groups
              • 7.6 Ajax
              • 7.6.1 Overview
              • 7.6.2 Examples
              • 7.6.3 Ajax requests with jQuery
              • 7.7 The $.getJSON function
              • 7.7.1 Overview
              • 7.7.2 Loading local files
              • 7.7.3 Loading remote files
              • 7.8 Exercise

              8 Symbology and Interactivity

              • 8.1 Introduction
              • 8.2 L.geoJSON options
              • 8.3 Constant style
              • 8.4 Varying style
              • 8.4.1 States example
              • 8.4.2 Towns example
              • 8.5 Constructing popups from data
              • 8.6 Adding a legend
              • 8.6.1 Using L.control
              • 8.7 Using CSS to style the legend
              • 8.8 Dynamic style
              • 8.8.1 Styling in response to events
              • 8.8.2 Dynamic control contents
              • 8.8.3 Linked views
              • 8.9 Exercise

              III Databases

              9 Databases

              • 9.1 Introduction
              • 9.2 What is CARTO?
              • 9.2.1 The CARTO platform
              • 9.2.2 Alternatives to CARTO
              • 9.3 Databases
              • 9.4 Spatial databases
              • 9.5 What is PostGIS?
              • 9.6 What is SQL?
              • 9.6.1 Overview
              • 9.6.2 Non-spatial queries
              • 9.6.3 The geometry column
              • 9.6.4 Spatial queries
              • 9.7 The CARTO SQL API
              • 9.7.1 API usage
              • 9.7.2 Query example
              • 9.7.3 Uploading your data
              • 9.8 CARTO and Leaflet
              • 9.9 Exercise

              10 Non-spatial queries

              • 10.1 Introduction
              • 10.2 Subsetting with SQL
              • 10.2.1 Filtering based on attributes
              • 10.2.2 Displaying on a map
              • 10.3 Creating a dropdown menu
              • 10.4 Populating dropdown options
              • 10.4.1 How many species do we have?
              • 10.4.2 Dropdown menu placeholder
              • 10.4.3 Finding unique values
              • 10.4.4 Adding the options
              • 10.5 Updating the map
              • 10.5.1 Overview
              • 10.5.2 Manual example
              • 10.5.3 Automatic updating
              • 10.6 Rearranging the code
              • 10.7 Exercise

              11 Spatial queries

              • 11.1 Introduction
              • 11.2 Adding marker on click
              • 11.2.1 Getting click coordinates
              • 11.2.2 Adding custom marker
              • 11.3 Spatial PostGIS operators
              • 11.3.1 Overview
              • 11.3.2 Geographical distance
              • 11.3.3 Sphere vs. Shperoid
              • 11.4 Adding nearest points to map
              • 11.5 Drawing line connectors
              • 11.6 Exercise

              IV Advanced topics

              12 Client-Side Geoprocessing

              • 12.1 Introduction
              • 12.2 Geoprocessing with Turf.js
              • 12.2.1 Overview
              • 12.2.2 Including the Turf.js library
              • 12.3 Great Circle line
              • 12.4 Continuously updated TIN
              • 12.4.1 Overview
              • 12.4.2 Generating random points
              • 12.4.3 Adding a TIN layer
              • 12.4.4 Draggable circle markers
              • 12.4.5 Continuous updating
              • 12.5 Clustering
              • 12.5.1 Overview
              • 12.5.2 Processing sets of features
              • 12.5.3 Adding a Convex Hull
              • 12.5.4 DBSCAN clustering
              • 12.6 Heatmaps with Leaflet.heat
              • 12.7 Exercise

              13 Collaborative Mapping

              • 13.1 Crowdsourcing
              • 13.2 The drawing control
              • 13.3 Working with drawn items
              • 13.4 Submission form
              • 13.5 Sending features to the database
              • 13.5.1 Setting database permissions
              • 13.5.2 Adding draw control
              • 13.6 Exercise

              V Appendices

              Appendix

              A Associated files

              B List of examples

              • B.1 Main
              • B.2 Additional
              • B.2.1 HTML and CSS
              • B.2.2 JavaScript
              • B.2.3 Leaflet
              • B.2.4 Geo-processing
              • B.2.5 2.5D Maps
              • B.2.6 3D maps
              • B.2.7 Animation
              • B.2.8 Real-time data

              C List of exercise solutions

              D General Information

              D.1 Place and Time

              • D.2 Course materials
              • D.3 Lesson Plan
              • D.4 Additional resources
              • D.4.1 HTML & CSS
              • D.4.2 JavaScript
              • D.4.3 Web mapping
              • D.4.4 PostGIS

              E Projects

              • E.1 Overview
              • E.2 CARTO Account
              • E.3 Data
              • E.4 Project requirements
              • E.4.1 Project 01
              • E.4.2 Project 02
              • E.4.3 Project 03
              • E.5 Submission
              • E.6 Grading

              F Setting up an SQL API

              • F.1 PostgreSQL and PostGIS
              • F.2 Adding data
              • F.3 Testing
              • F.4 Adding read-only user
              • F.5 Node.js
              • F.6 Server
              • F.7 Testing
              • F.8 Setup for production




              Os invitamos a 10 pases (Workshop Big Data Analytics en Barcelona, miercoles 10 de Octubre)

              $
              0
              0


              El próximo miércoles 10 de Octubre (Barcelona) realizamos en TodoBI, con la colaboración de nuestros compañeros de Stratebi, un interesante y práctico Workshop para aprender sobre las más modernas y potentes tecnologías Big Data Analytics (la mayor parte open source) que están siendo usados por grandes organizaciones

              Aquí tienes toda la información del Workshop Big Data Analytics para inscribirse

              Sí incluis el código: MYTUU al registraros, los 10 primeros tendrán pase gratis (Certificado y camiseta Data Ninja de regalo!!)




              TEMARIO WORKSHOP ANALYTICS & BIG DATA


              0. Introducción al Workshop por Emilio Arias (Editor TodoBI.com y profesor Master BI-Big Data)
                1. Introducción a Analytics & Big Data
                a. Directrices principales en las que se basa el Big Data y Analytics.
                b. La relación entre Big Data, BI & Data Science.
                c. Análisis de la implantación y casos de uso Big Data en grandes empresas.
                  2. Arquitecturas Big Data y Analytics
                  a. Introducción y clasificación de las principales tecnologías Big Data: Hadoop, columnares MPP y otras No-SQL.
                  b. Big Data Demos: Demostraciones interactivas de casos de uso usando las tecnologías anteriores.
                  c. Big Data Analytics Stack: Solución completa para la implementación de un Data Lake.
                    3. Apache Kylin: Consultas analíticas sub-segundo en Hadoop sobre billones de filas
                    a. Arquitectura y características principales.
                    b. Demostración práctica del funcionamiento de Kylin.
                    c. Caso de uso: Marketing digital.
                      5. Vertica: Tecnología columnar y MPP para el Big Data estructurado.
                      a. Arquitectura y características principales.
                      b. Demostración práctica del uso de Vertica.
                      c. Caso de uso: Sector Retail.
                        6. Benchmark soluciones Big Data OLAP y conclusiones.

                          Los Workshop Big Data Analytics continuan

                          Working as a Big Data Consultant

                          Como empezar a aprender Big Data en 2 horas

                          $
                          0
                          0


                          Big Data es uno de los hitos de estos últimos años. Son muchas las personas que quieren acercarse y conocer, primero lo más básico, para tener unas nociones generales. Pero resulta complicado encontrar una rápida guía, que en un par de horas, sirva para 'defendernos' en esto del Big Data, máxime si no se tienen altos skills técnicos

                          Por ello, hemos recopilado una serie de infografías, presentaciones, webinar, demos y documentación para que podáis tener una primera visión del Big Data en 2 horas!!


                          1. Infografías
                               

















                          2. Webinar



                          Ver en formato Presentación



                          3. Demos




                          Ver Demos Online



                          4. Claves-Presentaciones








                          5. Libro Verde del Big Data

























                          Mas info? Escríbenos


                          Viewing all 575 articles
                          Browse latest View live