Quantcast
Channel: Business Intelligence y Big Data: ¡Aprende Gratis sobre Analytics!
Viewing all 575 articles
Browse latest View live

'Comparativa Big Data OLAP Analytics', descarga el paper gratuito

$
0
0

El uso de sistemas Business Intelligence (BI) suele obtener una respuesta muy rápida e interactiva cuando se utilizan cuadros de mando, informes y consultas analíticas detalladas. Las aplicaciones de BI que cumplen con este requisito de procesamiento interactivo se conocen como aplicaciones OLAP (On-Line Analytical Processing). 

Sin embargo, cuando trabajamos con fuentes de datos con características de Big Data (Volumen, Variedad y Velocidad), nuestras tablas de métricas (por ejemplo, volumen de ventas, unidades...) y aquellas tablas que describen el contexto (por ejemplo, fecha, cliente, producto) podrían almacenar miles de millones de filas, lo que hace que los requisitos de procesamiento sean muy elevados, incluso para las tecnologías Big Data más avanzadas.

Por ello, se ha creado este estudio muy completo que, por primera vez, y de forma rigurosa, compara el rendimiento de las diferentes alternativas para realizar Big Data Analytics





**Download free 27 pages whitepaper ''Big Data Analytics benchmark' 
**Download free 27 pages whitepaper ''Big Data Analytics benchmark' 




Para soportar las aplicaciones OLAP con Big Data, en los últimos años han surgido múltiples tecnologías que prometen excelentes resultados. Algunas de los más conocidos son Apache Kylin, Vertica, Druid, Google Big Query o Amazon Red Shift. 





En este whitepaper describimos las tecnologías Big Data OLAP que forman parte del benchmark: Apache Kylin y Vertica. 



Además de comparar estas tecnologías entre sí, también las hemos comparado con la base de datos relacional PostgreSQL. 

Esta tecnología de código abierto, a pesar de no ser una base de datos Big Data, suele ofrecer muy buenos resultados para los sistemas OLAP tradicionales. Por lo tanto, consideramos que valía la pena incluir PostgreSQL para medir sus diferencias con Kylin y Vertica en un escenario de Big Data OLAP.


LinceBI, solución analítica basada en código abierto, utiliza estas tecnologías para un rendimiento escalable y más rápido en Business Intelligence 




More Info:


OLAP for Big Data. It´s possible?



Hadoop is a great platform for storing a lot of data, but running OLAP is usually done on smaller datasets in legacy and traditional proprietary platforms.   OLAP workloads are beginning to migrate to the one data lake that is running Hadoop and Spark. Fortunately, there are a number of Apache projects that are starting to make OLAP possible on Hadoop.  Apache Kylin For an introduction to this interesting Hadoop project, check...




Smart Cities, que son y para que sirven

$
0
0



Las Smart Cities y todo lo que rodea su expansión: transparencia, tecnología, Open Data, Big Data, Internet de las cosas (IoT), Open Source, ya están aquí y han venido para quedarse.



Nuestros compañeros de Stratebi también han preparado una presentación sobre Smart Cities y su apoyo en Open Source y Business Intelligence


'True facts' del Business Intelligence

$
0
0
Algunos puntos que conviene tener en cuenta a todos los que realizan proyectos Business Intelligence, que nos comenta nuestro compañero Emilio Arias:

- "La visualización 'SI' importa"



Vista espacial del diseño de los nuevos Resorts en la costa de Dubai

- Por mucho que los analistas digan que lo importante son los datos, hasta los controllers, te pedirán la mejor visualización posible 
 - Y la querrán en todos los browsers (en todos) y todas las versiones (hasta las obsoletas) y en todos los dispositivos (hasta en los paneles de las neveras) 
 - La memoria es visual, no lo olvides - Una imagen vale más que mil palabras.... y que mil números 
 - El color atrae. Cifras negras sobre fondo blanco no. 
 - Los hombres del tiempo llevan decenios representando las temperaturas sobre un mapa con iconos, simbolos y flechas... y se dirigen a una gran audiencia... 

 - Controla los riesgos




















- No quieras analizar más información de la necesaria y hagas inviable el sistema
- No quieras hacerlo todo tú, por ahorrar, y que luego no te sirva
- No te quedes 'comprometido' con una tecnología que luego no puedas integrar
- No crees unas expectativas a tus usuarios que luego no se correspondan con la realidad
- No crees unas expectativas a tus usuarios que luego no se correspondan con la realidad
- No crees unas expectativas a tus usuarios que luego no se correspondan con la realidad

Vocabulario Visual

$
0
0

Hay tantas maneras de visualizar los datos ¿cómo sabemos cuál elegir? Haga clic en una de las siguientes categorías para decidir qué relación de datos es la más importante en su historia, luego observe los diferentes tipos de gráficos dentro de la categoría para formar algunas ideas iniciales sobre lo que podría funcionar mejor.

Esta lista no pretende ser exhaustiva, ni un asistente, pero es un punto de partida útil para realizar visualizaciones de datos informativas y significativas.


Consejos para presentar bien los datos

$
0
0

Interesante y útil la presentación de StephanieEvergreen.com, con ejemplos y consejos sobre visualización


StephanieEvergreen.com.#sthash.4suMLKwJ.dpuf
StephanieEvergreen.com.#sthash.4suMLKwJ.dpuf
StephanieEvergreen.com.#sthash.4suMLKwJ.dpuf
StephanieEvergreen.com. #sthash.4suMLKwJ.dpuf
StephanieEvergreen.com. #sthash.4suMLKwJ.dpuf


Tutorial de Real Time Big Data con Apache Storm

$
0
0
Los compañeros de Stratebi realizan charlas técnicas internas sobre diferentes tecnologías en el ámbito del Business Analytics, Big Data, etc... y nos las pasan para compartirlas con poder compartirlas con todos vosotros.

En este primero se habla de Real Time Big Data con Apache Storm. Puedes ver muchas Aplicaciones Online Big Data explicadas en el enlace anterior

Prometen hacer más, estad atentos




Presentaciones:




Data Science Lifecycle

$
0
0



Es difícil explicarlo mejor en un solo gráfico!!

Bi isn't big data and big data isn't BI

$
0
0
Compartimos con vosotros esta interesante presentacion de Mark Madsen que explica de forma muy visual la relación entre BI y Big Data

 


Data is the source of Business Value

Libro gratuito: Big Intelligence

$
0
0

Nuestro buen amigo y colaborador en TodoBI, Antonio Miranda, acaba de publicar un libro mas que interesante y que, además, os podéis descargar gratuitamente y que os recomendamos:

"Big Intelligence. Nuevas capacidades Big Data para los sistemas de vigilancia estratégica e inteligencia competitiva"


Las grandes empresas de internet han creado un nuevo Mercado cuyos productos y servicios son el fundamento de un término paraguas que llamamos Big Data, que le da nuevas alas a las actividades y procesos que suelen englobarse en los conceptos de Vigilancia Estratégica e Inteligencia competitiva


A esa fusión de Big Data aplicado a la Vigilancia Estratégica e Inteligencia Competitiva lo ha denominado en este libro “Big Intelligence”.


Contiene apartados tecnológicos sobre temas muy de moda como Machine Learning, Data Science, Procesamiento de Lenguaje Natural, Ontologías, Web semántica, Bases de Datos NoSQL, apartados específicos sobre Vigilancia Estratégica e Inteligencia Competitiva y su implementación con enfoque Big Data, una presentación en tono divulgativo y también algunos modelos de procesos que pueden ser de vuestro interés.


Facebook Sentiment Analysis Dashboard with Pentaho

Las 7 C del Internet of Things (IoT)

$
0
0

Vaya, se trataba de buscar otra letra para concretar puntos importantes de una tecnología de moda. Ahora tenemos las 7 Cs del Internet of Things, y lo dice Forbes:

1 — Consumption: The first stage of the IoT is always consumption. We could also use the word ‘ingestion’ here i.e. we need to build devices that are capable of producing operational data so that we can consume it into our IT structures.


2– Connection: The existence of smart connections (from sensors and other types of connection points) are essential avenues for IoT construction. Only when we have connectivity to the IoT can we start to build intelligence around the data that it produces.


3 — Conversion: This is the crucial stage that sees us take raw sensor data and convert it into contextualized meaning. Applying human reasoning to raw data is simply not possible, we need to expand the 1s and Os that the machines produce and start to know what information matters where, when and why — this after all is what context is all about.





4 — Centralization: The Internet of Things is everywhere, which is kind of why it got its name in the first place. Given the existence of so many different, disparate, disconnected and disaggregated data streams, the need to centralize that data and bring into one central location is essential if we are to perform big data analytics.


5 — Cognition: This is the part where we make sure that we understand what the data itself means. This is not the same as plain old data conversion, this is a more analytical process where we make sure we can apply context to the data in hand.


6 — Configuration: In this stage, to use Elrifai’s concept directly, we start to channel ‘feedback’ from the cyber world into the physical world i.e. This is where we start to send the data that we have crunched BACK INTO the Internet of Things so that the machines can work better and work smarter.


7 — Coordination: This is where we take the insight we have gained from IoT intelligence and start the process of better business logistics and scheduling i.e. we know what machines are about to fail, what transport networks are about to suffer outages and delays etc. and we can then use that insight to coordinate the logistics arm of the business function.


An eighth C?

If there were an eight C on this list it would be Creativity— this is because big data analytics with the Internet of Things is all about experimentation.

8 puntos que debes saber para implementar AI en tu organizacion

$
0
0
Muy útil para saber si la Inteligencia Artificial es para tu organización o no:





Saber más:

Whitepaper gratuito 'Usos de Machine Learning por sectores'



Ya tenéis disponible un Estudio muy interesante de más de 60 páginas, que os podéis descargar gratuitamente desde el enlace anterior Que podéis encontrar? Más información: Plataforma Online de Soluciones Big Data y Machine Learning (Demos y Aplicaciones) Aplicación práctica de Machine Learning con Bases de Datos Analyticas. Descargar Paper VideoTutorial Machine Learning para Predicción de Ventas VideoTutorial PowerBI con R Aplicación...


Como y Donde aplicar Inteligencia Artificial



En esta infografía podéis ver los principales ámbitos de aplicación de la Inteligencia Artificial Glosario de Inteligencia Artificial (AI) octubre 27, 2018  machine learning  No comments Red neuronal artificial (RNA) Un algoritmo que intenta imitar al cerebro humano, con capas de "neuronas" conectadas que se envían información entre sí. Algoritmos de caja negra Cuando el proceso de toma de decisiones o la...


Diferencias entre Business Intelligence y Data Science (bien explicado)



Muy buena y clarificadora explicación, desde un punto de vista práctico de las diferencias entre estas dos disciplinas Saber más: Workshops Big Data Analytics en Madrid y Barcelona diciembre 24, 2018  big data, kylin, open source, Pentaho, vertica  No comments 2018 ha sido un buen año, en el que hemos vuelto a organizar nuestros workshops sobre tecnologías Open Source aplicadas al Big Data,...


Glosario de Inteligencia Artificial (AI)



Red neuronal artificial (RNA) Un algoritmo que intenta imitar al cerebro humano, con capas de "neuronas" conectadas que se envían información entre sí. Algoritmos de caja negra Cuando el proceso de toma de decisiones o la salida de un algoritmo no puede ser fácilmente explicado por el ordenador o el investigador detrás de él. Computer vision El campo de la I.A. se ocupa de enseñar a las máquinas a interpretar el mundo visual, es decir, a ver. Aprendizaje...



Presentacion: Como mentimos con las infografias

Jupyter Book: Interactive books running in the cloud


STPivot (Web Analytics open source based) complete Videotutorials

$
0
0

You can see on this series of VideoTutorials, the main features of STPivot (best open source based web analysis tool, with no licenses and professional support included) and how it works

Besides, you can embed, customize and modify in order to fit your needs

STPivot is part of LinceBI Open Analytics solution




1. LinceBI OLAP interactive analysis
2. STPivot OLAP Analytics for Big Data 
3. Powerful Forecasts in STPivot
4. STPivot (Formula Editor)
5. STPivot (OLAP Selector)
6. STPivot (Advance Selector features)
7. STPivot (working with saved selections)
8. STPivot (Drill through and table navigation)
9. STPivot (Working with graphs, maps and calc)
10. STPivot (Forecast and Regression apps)
11. STPivot (What-if scenarios and wizard)
12. STPivot (Using calculate members)


Once pasos para construir un Datawarehouse con exito

$
0
0


Cada vez más empresas empiezan a utilizar Datawarehouses para obtener información útil sobre sus negocios y tomar decisiones adecuadas.
Hasta hace poco, sólo las grandes compañías se podían permitir crear un DW y tener aplicaciones y analistas para extraer toda esa información. Sin embargo, el abaratamiento de los costes de software y, sobre todo, del hardware, hacen que su uso se haya popularizado y extendido.
Por este motivo, se hace necesario establecer unos criterios que lleven a al creación de este entorno de forma exitosa.

1)
Reconocer que el trabajo será más duro de lo que se esperaba inicialmente.

Es muy habitual encontrarse con que más de un 30% de la información contenida en los sistemas operaciones o es incorrecta o incompleta para incorporarla al DW. Esta mala calidad de los datos incide en la complejidad del trabajo.
Otro ejemplo, es el de los administradores de la base de datos, que usan números en lugar de nombres de ciudades para optimizar el cálculo en sistemas operacionales. En un entorno Business Intelligence, este tipo de ‘trucos’ no son muy útiles, pues los usuarios necesitan descripciones completas.
Otro tema que hace el trabajo más duro del esperado, es la aparición de nuevos productos o divisiones durante el proceso de implementación. Algo habitual dada la duración del mismo.

2) Conocer los datos en los sistemas origen.

Antes de comenzar a construir el DW es muy importante analizar los datos y sus interrelaciones entre todas las Bases de Datos disponibles.
Posteriormente, al migrar esa información al DW, será necesario mantener esas relaciones, por lo que es muy importante hacerlo bien para evitar inconsistencias en el modelo de datos que pueden provocar muchos quebraderos de cabeza.


datawarehouse


3) Saber reconocer entidades equivalentes

Uno de los principales problemas que surgen cuando se analizan sistemas heterogéneos, es la de identificar como una misma entidad, elementos que aparecen con nombres y descripciones diferentes, pero que se refieren a lo mismo.
Por ejemplo, dos departamento diferentes (Comercial y Finanzas), pueden estar registrando en sus sistemas información sobre un mismo cliente, pero puede que este registrado con nombre diferentes (nº cliente, nº fiscal, nombre social, etc…)

4) Usar metadatos como soporte a la calidad de los datos.

El uso de metadatos (datos sobre los datos), es crucial para el éxito de un DW. Es muy importante empezar a recoger y almacenar metadatos desde las fases iniciales del proyecto e incluir todas las fases del mismo.
También es muy útil integrar todos los metadatos en un lugar común. Esto será especialmente interesante cuando estemos trabajando con diferentes herramientas, cada una de las cuales, genera sus propios metadatos.

5) Seleccionar las herramientas ETL adecuadas.

Las herramientas ETL, se encargan de las extracción de datos de los sistema fuente, de su transformación y posterior carga en el DW o en algún sistema intermedio para posteriores transformaciones.
A la hora de seleccionar una herramienta ETL, será muy útil que tenga un manejo sencillo y represente de forma visual todas las transformaciones.
Así mismo, será muy útil que pueda ir generando metadatos, conforme se vaya realizando el proceso ETL.

6) Tomar ventaja de las fuentes externas

La integración de fuentes externas a los sistemas operacionales, como puede ser la infomación de encuestas de satisfacción de los clientes o los estudios de mercado de terceros, o información sobre competidores, puede aportar un valor añadido muy importante al DW.
Esta información nos permitirá sacar conclusiones mucho más avanzadas sobre el negocio, que las meramente internas como ventas, costes, etc…

7) Utilizar nuevos métodos de distribución de la información.
Antiguamente, se necesitaba de la participación de analistas que prepararan los informes para cada necesidad de los usuarios. Sin embargo, ahora se pueden utilizar informes parametrizables, envios via e-mail, alertas, etc… de modo que son los usuarios finales los que acceden directamente a la información que necesitan y pueden configurarse sus propias consultas.

8) Centrarse en aplicaciones para uso en Marketing

Un DW ofrece una de sus mayores ventajas a los departamentos de Marketing, donde se tienen que manejar grandes cantidades de información. Empresas del sector de distribución, banca y seguros pueden realizar complejos análisis de ventas cruzadas y generar ofertas en base a un portfolio de productos que se pueda ajustar a las necesidades de los clientes.

9) Enfatizar los primeros resultados positivos para ganar apoyo de la organización

La reducción de la complejidad de estos sistemas y el enfoque incremental utilizado en su creación, hacen que se pueda empezar a ver algunos frutos en un corto plazo de tiempo.
Esto tiene que ser aprovechado para que la organización valide lo realizado y apoye con sugerencias y compromiso los nuevos desarrollos que aún están pendientes.

10) No hay que infravalorar los requerimientos de Hardware

En un DW, los requerimientos de hardware son uno de los principales temas a valorar. A veces, se diseña una arquitectura que puede ser ampliamente suficiente para la entrada en producción, pero a menudo se olvida que estos sistemas crecen muy rápidamente, se necesitan sistemas de copia seguros y las necesidades de rendimiento, en términos de agilizar los cálculos son muy importantes. Por eso, nunca conviene infravalorar el número de CPU´s y memoria en disco disponibles.


11) Considerar el Outsourcing para el desarrollo y mantenimiento del DW
Muchas compañias de mediano y gran tamaño utilizan el outsourcing como medio de garantizar el complejo, largo y costoso proceso de poner en funcionamiento un DW y evitan la dificultad de encontrar y retener profesional IT capacitados.
El outsourcing puede llegar a generar nuevas ideas y desarrollos en base a su conocimiento profundo del DW y de su arquitectura, además no tiene los problemas de falta de personal capacitado de muchas empresas.


Fuente: Syntel
Tags: Destacado

69 claves para conocer Big Data

Ranking de principales usos y tecnologias del Big Data

$
0
0

Se habla mucho de Big Data, sus tecnologías, aplicaciones, etc... pero resulta difícil concretar el principal uso que le podemos dar, así como su nivel de madurez. 

A continuación se indican las principales tecnologías en las que tiene una aplicación real:

  1. Predictive analytics: software and/or hardware solutions that allow firms to discover, evaluate, optimize, and deploy predictive models by analyzing big data sources to improve business performance or mitigate risk.
  2. NoSQL databases: key-value, document, and graph databases.
  3. Search and knowledge discovery: tools and technologies to support self-service extraction of information and new insights from large repositories of unstructured and structured data that resides in multiple sources such as file systems, databases, streams, APIs, and other platforms and applications.
  4. Stream analytics: software that can filter, aggregate, enrich, and analyze a high throughput of data from multiple disparate live data sources and in any data format.
  5. In-memory data fabric: provides low-latency access and processing of large quantities of data by distributing data across the dynamic random access memory (DRAM), Flash, or SSD of a distributed computer system.
  6. Distributed file stores: a computer network where data is stored on more than one node, often in a replicated fashion, for redundancy and performance.
  7. Data virtualization: a technology that delivers information from various data sources, including big data sources such as Hadoop and distributed data stores in real-time and near-real time.
  8. Data integration: tools for data orchestration across solutions such as Amazon Elastic MapReduce (EMR), Apache Hive, Apache Pig, Apache Spark, MapReduce, Couchbase, Hadoop, and MongoDB.
  9. Data preparation: software that eases the burden of sourcing, shaping, cleansing, and sharing diverse and messy data sets to accelerate data’s usefulness for analytics.
  10. Data quality: products that conduct data cleansing and enrichment on large, high-velocity data sets, using parallel operations on distributed data stores and databases.

Visto en Forbes

Una 'breve' Historia del Machine Learning

$
0
0

Hoy en día, el concepto de Machine Learning, está muy en boga, pero muchos lo entremezclan con la estadistica, las matemáticas, el Big Data, etc... para ello, que mejora hacer un repaso histórico de su evolución para conocerlo mejor

Historia del Machine Learning:

1950 — Alan Turing creates the “Turing Test” to determine if a computer has real intelligence. To pass the test, a computer must be able to fool a human into believing it is also human.
1952 — Arthur Samuel wrote the first computer learning program. The program was the game of checkers, and the IBM computer improved at the game the more it played, studying which moves made up winning strategies and incorporating those moves into its program.
1957 — Frank Rosenblatt designed the first neural network for computers (the perceptron), which simulate the thought processes of the human brain.
1967 — The “nearest neighbor” algorithm was written, allowing computers to begin using very basic pattern recognition. This could be used to map a route for traveling salesmen, starting at a random city but ensuring they visit all cities during a short tour.
1985 — Terry Sejnowski invents NetTalk, which learns to pronounce words the same way a baby does.
1990s — Work on machine learning shifts from a knowledge-driven approach to a data-driven approach.  Scientists begin creating programs for computers to analyze large amounts of data and draw conclusions — or “learn” — from the results.
1997 — IBM’s Deep Blue beats the world champion at chess.
2006 — Geoffrey Hinton coins the term “deep learning” to explain new algorithms that let computers “see” and distinguish objects and text in images and videos.
2010 — The Microsoft Kinect can track 20 human features at a rate of 30 times per second, allowing people to interact with the computer via movements and gestures.
2011 — IBM’s Watson beats its human competitors at Jeopardy.
2011 — Google Brain is developed, and its deep neural network can learn to discover and categorize objects much the way a cat does.
2012 – Google’s X Lab develops a machine learning algorithm that is able to autonomously browse YouTube videos to identify the videos that contain cats.
2014 – Facebook develops DeepFace, a software algorithm that is able to recognize or verify individuals on photos to the same level as humans can.
2015 – Amazon launches its own machine learning platform.
2015 – Microsoft creates the Distributed Machine Learning Toolkit, which enables the efficient distribution of machine learning problems across multiple computers.
2015 – Over 3,000 AI and Robotics researchers, endorsed by Stephen Hawking, Elon Musk and Steve Wozniak (among many others), sign an open letter warning of the danger of autonomous weapons which select and engage targets without human intervention.
2016 – Google’s artificial intelligence algorithm beats a professional player at the Chinese board game Go, which is considered the world’s most complex board game and is many times harder than chess. The AlphaGo algorithm developed by Google DeepMind managed to win five games out of five in the Go competition.


Os dejamos también una presentación sencilla y útil sobre Data Mining y su relación con el Machine Learning




Visto en Forbes
Viewing all 575 articles
Browse latest View live