martes, 3 de mayo de 2011

El análisis de datos está creando nuevas oportunidades de negocio

La explosión de las herramientas de análisis de datos está siendo impulsada por una verdad económica fundamental: el hundimiento del coste de las tecnologías de memoria. El término "Disco de empresa" se refiere a las unidades de almacenamiento de gran tamaño utilizadas en los centros de datos.
Fuente: Credit Suisse and Gartner
























Las tecnologías están convergiendo para dar a las empresas más capacidad para detectar lo que sus clientes podrían desear.


Por Lee Gomes (*)

Sentarse en la cubierta superior izquierda para ver el partido de béisbol de los San Francisco Giants el 11 de mayo le costaría ocho dólares si usted hubiese comprado el ticket a finales de abril. Sin embargo, si quisiese el mismo ticket para el partido del 21 de mayo, usted tendría que pagar 45,50 dólares.

Las capacidades del software finalmente se han encontrado con lo que los revendedores siempre han sabido: los precios de los tickets deberían depender de la demanda. Con la ayuda de un sistema de análisis de datos de Qcue, una compañía de Austin, Texas, los Giants han adoptado la fijación dinámica de precios, lo que permite cambiar los precios de los tickets dependiendo de las circunstancias que afectan a la demanda—incluso hasta el último minuto. El sistema cuantificó hasta qué punto tenían que bajar los precios con el fin de llenar todos los asientos en un partido celebrado un miércoles por la noche contra los mediocres Arizona Diamondbacks, y cuánto más estaría dispuesta a pagar la gente por un partido un sábado por la tarde contra los rivales de los Giants: los Oakland A's.

La organización de los Giants señala que la fijación dinámica de precios ha logrado un aumento del 6 por ciento en los ingresos por venta de entradas el año pasado, por encima de lo que el equipo podía haber esperado de una temporada ganadora que culminó en una victoria de la Serie Mundial. De hecho, los Giants están experimentando con otras versiones de fijación dinámica de precios, como el uso de datos meteorológicos para determinar el precio óptimo para la cerveza.

Es sólo un ejemplo de una nueva generación de tecnologías de análisis de bases de datos y datos que ofrecen a las empresas nuevas formas de alcanzar y—según esperan—complacer a sus clientes. Esta es la gran idea que vamos a explorar a lo largo de mayo en Business Impact.

Las bases de datos son tan antiguas como los ordenadores y han formado parte del corazón de las operaciones de la mayoría de las empresas durante décadas, aunque durante los últimos años hemos asistido a avances significativos tanto en el hardware y el software involucrados. Los grupos de datos son cada vez más grandes, y los métodos de análisis se están haciendo mucho más rápidos.

Es por eso que los precios dinámicos están pasando más allá de la industria de las aerolíneas y sus ordenadores centrales. Sin embargo, aún cuando el análisis se puede hacer hoy día usando hardware menos sofisticado, es capaz de funcionar en situaciones más complejas que un estadio de béisbol, que puede tener miles de asientos en múltiples niveles de precios. Debido a esta potencia mejorada para el análisis de muchas clases de datos, cada vez más empresas tienden a tratar de utilizar dicha potencia para conseguir mejorar sus operaciones, desde atraer y mantener a clientes hasta averiguar qué nuevos productos introducir y a qué precio.

Estas nuevas tecnologías todavía no tienen un nombre pegadizo, como por ejemplo el uso de la palabra "nube" para la computación centralizada. A veces se les llama "Big Data", aunque ese término es aplicable sólo a algunos de los cambios en curso. Su magnitud fue resumida en un informe publicado en marzo por un equipo de analistas de Credit Suisse, que afirmaban que el mundo de las TI "se sitúa en la cúspide de la revolución más importante en las arquitecturas de bases de datos y aplicaciones en 20 años".

Grandes empresas de tecnología como IBM, Oracle y Hewlett-Packard han gastado miles de millones de dólares en adquirir empresas que ofrecen análisis de negocio y tecnologías de bases de datos. Las startups relacionadas con los datos también están en aumento en Silicon Valley; la mayoría de las grandes firmas de capital riesgo tienen ahora un socio especializado en ese campo. Los datos que se analizan ni siquiera tienen que venir en forma de registros de transacciones u otras cifras. Por ejemplo, CalmSea, una startup formada en 2009 por varios veteranos de la industria de los datos, vende un producto que permite a los minoristas recabar información útil procedente de la enorme cantidad de información sobre ellos en las redes sociales. Los minoristas podrían decidir lanzar ofertas especiales para sus clientes leales, o lanzar esfuerzos de marketing bien diseñados en respuesta a los cambios en el sentimiento público.

Las grandes empresas de consultoría también están aumentando sus prácticas relacionadas con los datos. "Existe una gran cantidad de datos nuevos hay ahí fuera", señaló Brian McCarthy, director de estrategia para el análisis en Accenture. "Las compañías están tratando de encontrar la manera de extraer valor de todo el ruido".

Todo esto es posible gracias a dos ramas tecnológicas distintas.

* Las herramientas de base de datos y análisis de negocio tradicionales están siendo rediseñadas para que no tengan que almacenar datos en una unidad de disco tradicional. En su lugar, pueden funcionar en su totalidad en la memoria de un ordenador—la que no está en una unidad independiente, sino conectada al corazón de la máquina. Este enfoque "en memoria" (“in-memory”) habría sido prohibitivo hace unos años pero ahora es factible debido a la continua disminución de los precios de la memoria flash, la misma tecnología de estado sólido utilizada en los teléfonos móviles y reproductores de música.

Las operaciones dentro de la memoria de estado sólido de un ordenador van más rápido que las que necesitan acceder a las piezas móviles de una unidad de disco, a veces por un factor de 100. Como resultado, el software de base de datos recibe un aumento de rendimiento inmediato.

Sin embargo también existen muchas otras ventajas menos evidentes. Steve Graves, director general de McObject, que vende una base de datos en memoria, afirma que el software de base de datos tradicional por lo general intenta reducir al mínimo el uso del disco, así como mejorar el rendimiento. Esas líneas de código simplemente se pueden omitir en una versión en memoria del programa, por lo que el rendimiento es aún más ágil.

Otra de las ventajas de los sistemas en memoria es que simplifican una serie de tareas complejas y que consumen mucho tiempo, y que ahora deben suceder antes de que los datos almacenados a efectos contables se puedan utilizar para analizar las operaciones de una empresa. Este trabajo generalmente se asigna al ya de por sí sobrecargado departamento de TI de la empresa, creando un embotellamiento para aquellos departamentos que traten de hacer un buen uso de los datos corporativos. El cofundador de SAP Hasso Plattner se muestra tan entusiasta acerca de la búsqueda de nuevas herramientas de datos en memoria que ha co-escrito un libro sobre el tema.

* La otra novedad significativa dentro del campo de los datos consiste en el ensamblaje de unidades tradicionales de disco en configuraciones antes impensables. Gran parte de este trabajo fue realizado por primera vez en Google, en conexión por sus esfuerzos por indexar toda la web. Sin embargo, desde aquel entonces han sido desarrolladas versiones públicas de muchas de esas herramientas, al estilo Linux, por la comunidad de código abierto.

La más conocida es Hadoop, un enfoque de almacenamiento de datos a gran escala utilizado por un número creciente de empresas. El mayor cluster conocido de Hadoop es un sistema de 25 petabytes de 2.000 máquinas en Facebook. (Un petabyte son mil terabytes, o un 1 seguido de 15 ceros). Se cree que Google opera clusters aún más grandes, aunque la compañía no discute el asunto.

Estos dos planteamientos arquitectónicos de bases de datos—en memoria y a mega-escala—están siendo mejorados por los cambios en el software de base de datos.

Las bases de datos tradicionales fueron diseñadas para facilitar "transacciones", tales como la actualización de una cuenta bancaria cuando se hace un retiro del cajero automático. Tienden a ser rígidamente estructuradas, con campos bien definidos; la base de datos para un departamento de nóminas probablemente incluya campos para el nombre de un empleado, su número de Seguro Social, el estado de la declaración de impuestos, y cosas similares. Las preguntas que usted puede preguntar acerca de los datos están limitadas por los campos en los que se introdujeron los datos en primer lugar. Por el contrario, los nuevos enfoques tienen una forma más indulgente de manipulación de datos "no estructurados", como el contenido de una página web. Como resultado, los usuarios pueden hacer preguntas en las que podrían no haber siquiera pensado cuando establecieron la base de datos por primera vez.

Estos dos nuevos enfoques en cuanto a los datos tienen algo en común: aprovechar los nuevos conocimientos algorítmicos. Un ejemplo es "noSQL", un nuevo enfoque, del tipo ‘menos es más’, dentro de las consultas de bases de datos; en aras de la rapidez, prescinde de muchas de las funciones menos utilizadas del Structured Query Language, un estándar de base de datos usado desde hace tiempo. Otro ejemplo son las bases de datos "columnares", basadas en investigaciones que muestran que el software de datos se ejecuta con mayor rapidez cuando la información es, en efecto, almacenada en columnas en lugar de filas.

Obviamente, algunas enormes propiedades web como Google o Facebook necesitan nuevos enfoques de base de datos. Sin embargo los vendedores de tecnología de datos también se jactan de historias de éxito que poco o nada tienen que ver con la web.

Por ejemplo, un sistema en memoria llamado HANA, creado por SAP, permite a la compañía de herramientas eléctricas Hilti obtener información de los clientes para sus equipos de ventas en unos pocos segundos, en lugar de las varias horas que requiere su software de almacenamiento de datos tradicional. Esto proporciona al personal de ventas ideas prácticamente instantáneas acerca de las operaciones de un cliente y el historial de pedidos.

Circle of Blue, una organización no lucrativa dedicada al estudio de problemáticas mundiales relacionadas con el agua, está a punto de utilizar los productos en memoria de QlikTech para agregar masas de datos para un complejo estudio de los Grandes Lagos, afirma su director ejecutivo J. Carl Ganter.

Los proveedores de servicios financieros están utilizando sistemas Hadoop de una empresa llamada Cloudera en sus esfuerzos de detección de fraudes, básicamente añadiendo toda la información que pueden recabar en un intento por encontrar nuevos métodos por los que sus redes de pagos podrían ser objeto de abusos.

Un denominador común es que los nuevos sistemas hacen a las bases de datos tan rápidas y sencillas que las empresas siempre empiezan a encontrar nuevos usos para ellas. Un gran minorista, por ejemplo, podría comenzar a llevar un registro de cada movimiento de ratón y clic de todos los visitantes de su sitio, con el objetivo de encontrar nuevas ideas acerca de las opciones del cliente.

Y a medida que las empresas ven caer en picado el coste del almacenamiento de datos, ajustan sus nociones sobre la cantidad de datos que necesitan mantener. Los petabytes de almacenamiento han dejado de ser sólo propiedad de Google.

(*) Lee Gomes, escritor en San Francisco, ha cubierto Silicon Valley durante 20 años. Durante gran parte de ese tiempo ha sido reportero del Wall Street Journal.

No hay comentarios:

Publicar un comentario