Tendencias en negocios

10 Tendencias en Inteligencia de Negocios 2019 – 2021

El ritmo y la evolución de las soluciones que se van conociendo en el ámbito de la inteligencia de negocios significa que lo que está funcionando en la actualidad puede que en un futuro muy cercano, necesite ser ajustado y mejorado. Para ello, se consultó a clientes y ejecutivos de Tableau, empresa con su sede principal en Seattle, Estados Unidos, dedicada al desarrollo de productos de visualización de datos interactivos​ que se enfocan en inteligencia empresarial para que identifiquen las 10 tendencias de mayor impacto en el mundo de los negocios. Ya sea una especialista de datos, un gurú de tecnologías de información o un ejecutivo que construye su imperio de inteligencia de negocios, estas tendencias enfatizan las prioridades estratégicas que podrían ayudar a llevar a su organización a un nivel superior de competitividad.

Tendencias de negocios

1. No temer a la Información Automatizada o Inteligencia Artificial

La cultura popular está alimentando una visión poco deseable de lo que el aprendizaje automático o inteligencia artificial puede realmente hacer. Mientras la investigación y la tecnología continúan mejorando, el aprendizaje automatizado se está convirtiendo rápidamente en un valioso complemento para el analista. De hecho, el aprendizaje automatizado es el mejor asistente del analista. 

Imagínense la necesidad de observar rápidamente el impacto de un cambio de precio en un producto determinado. Para hacer esto, habría que ejecutar una regresión lineal con sus datos. Antes de una tabla de cálculos, todo se hacía manualmente y el proceso llevaba muchas horas. Gracias a la inteligencia artificial, ahora se puede ver el consumo del producto en cuestión de minutos o de segundos. Como analista, no se necesita realizar ese trabajo pesado, sin embargo, puede pasar a las siguientes preguntas de análisis: ¿los meses de mayor consumo se debieron a un factor extrínseco como las vacaciones? ¿Había una nueva versión de producto? ¿Hubo cobertura de noticias que influyó en la compra o el conocimiento del producto? Sin lugar a dudas, en lo que no estás pensando es en cómo te gustaría haber pasado más tiempo perfeccionando tu modelo de regresión. 

aprovechar la tecnología en la empresaEl potencial del aprendizaje automático para ayudar a un analista es innegable, pero es fundamental reconocer que debe ser adoptado cuando hay resultados claramente definidos. “El aprendizaje automático no es bueno cuando sus datos son subjetivos”, señala Andrew Vigneault, Gerente de Producto de Tableau.  Por ejemplo, cuando se realiza una encuesta a los clientes sobre la satisfacción de los productos, el proceso de información automatizado no siempre recoge información y datos cualitativos. 

Además, el analista necesita entender las métricas de éxito para que los datos tengan sentido de una manera que sea procesable. En otras palabras, las entradas de datos en una máquina no hacen que las salidas sean significativas. Sólo un ser humano puede entender si se ha aplicado el contexto adecuado de información, lo que significa que el aprendizaje automático no puede realizarse de forma aislada (sin una comprensión desde el punto de vista humano del modelo y de las entradas/salidas que se están realizando). 

Si bien puede haber preocupación por que el ser humano sea reemplazado, el aprendizaje automático realmente sobrecargará a los analistas y los hará más eficientes, más precisos y producirán más impacto sobre el negocio. En lugar de temer a la tecnología de información automatizada, hay que saber aprovechar las oportunidades que presenta.

2. Impacto de las Artes Liberales en la Industria de Análisis 

 A medida que la industria del análisis se encuentra en búsqueda permanente de personal técnico capacitado y las organizaciones buscan mejorar el desempeño de su equipo de análisis, es posible que hayamos tenido talento en abundancia al alcance de la mano durante todo este tiempo. Estamos familiarizados con la forma en que el arte y la narración han ayudado a tener impacto en la industria del análisis de datos. 

Esto no es una sorpresa. Lo que debe sorprendernos es cómo los aspectos técnicos de crear un cuadro de mando analítico, reservado anteriormente a los usuarios de las tecnologías de la información y la comunicación y a los usuarios avanzados, actualmente está siendo asumido por usuarios que entienden el arte de contar historias, un conjunto de habilidades que provienen principalmente de las artes liberales. 

Además, las organizaciones están dando un mayor valor a la contratación de trabajadores que puedan utilizar los datos y la información para influir en el cambio e impulsar la transformación a través del arte y la persuasión y no sólo en el análisis en sí mismo. 

A medida que las plataformas tecnológicas se vuelven más fáciles de usar, disminuye el enfoque en las especialidades tecnológicas. Todo el mundo puede jugar con datos sin necesidad de tener habilidades técnicas especiales que en algún momento fueron requeridas.  Aquí es donde personas con habilidades más amplias, incluyendo las artes liberales, entran en juego y tienen impacto en las industrias y organizaciones donde el personal especialista en datos, es escaso.Ventaja competitiva de una empresa 

A medida que más organizaciones se centran en el análisis de datos como una prioridad de negocio, estos administradores de datos de artes liberales ayudarán a las empresas a darse cuenta de que capacitar a su fuerza laboral se convierte en una ventaja competitiva.  

No sólo vemos una oportunidad para ayudar a contratar a una nueva generación de trabajadores especializados en análisis de datos, sino que también hemos observado varios casos en los que empresas de base tecnológica fueron lideradas por fundadores con una educación en artes liberales. Esto incluye a los fundadores y ejecutivos de Slack, LinkedIn, PayPal, Pinterest y varias otras compañías de tecnología de alto rendimiento. 

3. La Promesa del Procesamiento Natural del Lenguaje

A medida que los desarrolladores e ingenieros continúan perfeccionando su comprensión del procesamiento natural del lenguaje, la integración de ese lenguaje en otras áreas también irá en aumento. La creciente popularidad de Amazon Alexa, Google Home, y Microsoft Cortana ha alimentado las expectativas de la gente de que pueden hablar con su software y que éste le entenderá lo que tiene que hacer. Este mismo concepto también se aplica a los datos, facilitando a los usuarios, la posibilidad de formular preguntas y analizar los datos que se tienen a mano. Se dice que para el 2020, el 50% de las consultas analíticas se generarán a través de búsqueda de voz o procesamiento natural del lenguaje.  Esto significa que será mucho más fácil para un directivo que se encuentra en movimiento, preguntar rápidamente a su dispositivo móvil, por ejemplo: “Ventas totales de clientes que compraron alimentos básicos en Londres”. filtrar a “pedidos en los últimos 30 días”, y luego agrupar por “departamento del responsable del proyecto o campaña”.  

El procesamiento natural del lenguaje capacitará a la gente para formular más preguntas con ciertos matices y recibir respuestas relevantes que conduzcan a una mejor comprensión en la toma diaria de decisiones. 

4. El debate por la multi-nube

 Si en la actualidad, su empresa está explorando y debatiendo sobre alguna estrategia multi-nube, tenga por seguro que no está sólo ni es el único en el intento.  

Según Francois Ajenstat, Director de Producto de Tableau Software, “hay una estampida de organizaciones trasladando sus datos a la nube y moviendo su núcleo de aplicaciones”, ya sea por “mover y cambiar” o una reorganización, “Los clientes está como nunca adoptando la nube a un ritmo mucho más rápido.” 

Un reciente estudio de Gartner, señala que “una estrategia multi-nube se convertirá en la estrategia común para el 70% de las empresas en 2019, en comparación con el escaso 10% en la actualidad”. Los clientes se están volviendo más sensibles a quedar atrapados en una única solución de software que no se ajuste a sus necesidades futuras. Sin embargo, el cambio y las migraciones se han vuelto relativamente más fáciles con Interfaces similares de programación de aplicaciones así como el uso abierto de  Linux, Postgres, MySQL, y otros.   

Estrategia multi-nube en la empresaEs probable que su organización también esté evaluando cómo se diseñan y ejecutan los centros de datos. El departamento de Tecnologías de Información estará evaluando los entornos de alojamiento en función del riesgo, la complejidad, la velocidad y aspectos relacionados con costes. Todos estos factores aumentan la dificultad para encontrar una única solución para las necesidades de una empresa. La evaluación e implementación de un entorno multi-nube puede ayudar a determinar quién proporciona el mejor rendimiento y soporte para cada situación. De acuerdo con el Boston Herald, GE realineó su estrategia de alojamiento en la nube para aprovechar los servicios de Microsoft Azure y Amazon Web, con la intención de comprender el entorno de hosting de mejor rendimiento y ver qué contrato proporciona el costo más bajo para ofrecer a sus clientes. 

Una estrategia multi-nube podría potencialmente disminuir el poder adquisitivo de una empresa. Si una compañía está dividiendo sus compras entre múltiples proveedores, le afectará directamente a tener descuentos por volumen.  

Las estadísticas, así como diversos estudios, indican que la elección de múltiples nubes está en aumento. Sin embargo, no indica la medida en que una plataforma en concreto esté siendo elegida. En muchos casos de multi-nube, las organizaciones están utilizando un único proveedor para la mayoría de sus necesidades y otros pocos para otros fines. Pero, la mayoría de estos casos, se basan en la implementación de un segundo entorno de alojamiento en la nube como copia de seguridad en caso de fallar o fracasar el entorno de alojamiento principal.  

Así como la preferencia por la multi-nube va en aumento, las empresas tendrán que evaluar si con su estrategia aplicada es posible medir el nivel de incorporación de cada plataforma de nube, el uso interno así como la demanda de horas de trabajo y los costes de implementación.  

5. Ascenso del Director General de Datos

Los datos y el análisis se están convirtiendo indiscutiblemente en el núcleo de toda organización. En la medida en que las empresas van evolucionando, están priorizando un nuevo nivel de enfoque estratégico y de rendición de cuentas en relación al ámbito de análisis. 

Históricamente, la mayoría de los esfuerzos de inteligencia de negocios se asignaban al Director de Información, quien supervisaba la estandarización, consolidación y gestión de los activos de datos en todo el mundo y que, además requieren informes coherentes. Todo esto pone a las iniciativas de inteligencia de negocios (gestión de datos, construcción de modelos analíticos, etc.) en competencia con otras iniciativas estratégicas (como la arquitectura de tecnologías de información, seguridad del sistema, o estrategia de red) bajo el ámbito de competencia -del  Director General de Datos-. 

El hecho que los Directores Generales de Datos y Directores Generales de Análisis estén siendo apuntados y designados para rendir cuentas por el impacto en los negocios y la mejora de resultados, también demuestra el valor estratégico que se está dando a los datos y al análisis en las organizaciones modernas que están asignando más dinero y otro tipo de recursos.

preguntas de un director general

 

En lugar de esperar solicitudes de un informe en particular, los Directores Generales de Datos deben preguntarse: “¿Cómo podemos anticiparnos o adaptarnos rápidamente a las solicitudes de información de las empresas? 

 

Josh Parenteau, Director de Inteligencia de Mercado de Tableau, señala que el papel del Director General de Datos es “estar enfocado en los resultados.” Afirma que “no se trata sólo de poner datos en una base de datos y, con suerte que alguien los use, si están ahí  es para definir cuál es el uso y asegurarse de que con esos datos se está obteniendo y agregando valor”. Este enfoque en los resultados es crítico, porque se alinea con tres objetivos principales, que incluyen una mayor intimidad con el clienteuna mayor ventaja competitiva, y una mejora de la eficiencia. Estos objetivos están sirviendo de insumo principal a empresas como Wells Fargo, IBM, Aetna y Ancestry para implementar el puesto de Director General de Datos con la intención de llevar su estrategia de datos a la siguiente fase y así convertir el papel de ese puesto de responsabilidad en un elemento básico de la empresa. 

6Gestión de fuentes masivas 

El equipo moderno de inteligencia de negocios ha progresado desde los bloqueos de datos y contenido hasta la capacitación de los usuarios empresariales de todo el mundo para que puedan hacer uso de datos fiables y controlados para obtener información. Y como la gente está aprendiendo a utilizar los datos en diversas situaciones, su aporte a los mejores modelos de gestión ha sido muy valiosa. En definitiva, se convierten en una fuerza fundamental dentro de las empresas. 

Es una forma de decir que el análisis de tipo “autoservicio” ha perturbado el mundo de la inteligencia de negocios.  El paradigma ha cambiado a cualquiera que tuviera la capacidad de crear análisis y le condujera a la formulación y respuesta de preguntas críticas en toda la organización. La misma perturbacion pasa con la gestión.  A medida que la analítica de autoservicio se expande, un embudo de valiosas perspectivas y de información comienza a inspirar nuevas e innovadoras maneras de implementar y mejorar la gestión. 

Para el usuario empresarial, la última responsabilidad que quiere es la seguridad de los datos. Las políticas de buen gobierno permiten al usuario empresarial formular y responder preguntas, al tiempo que le permiten encontrar los datos que necesita, cuando los necesita y donde los necesita. 

Las estrategias de inteligencia de negocios y análisis adoptarán el modelo moderno de gestión, es decir, los Departamentos de Tecnologías de Información y los Ingenieros de Datos conservarán y prepararán fuentes de datos confiables, y a medida que se incorpore el autoservicio, los usuarios finales tendrán la libertad de explorar datos que sean confiables y seguros. Los procesos descendentes que sólo abordan el control de tecnologías de información, se descartarán en favor de un proceso de desarrollo colaborativo que combine los talentos de tecnología e información y de los usuarios finales. Juntos, identificarán los datos que sean más importantes para gestionar y crear reglas y procesos que maximicen el valor comercial de los análisis sin comprometer la seguridad.

7. Seguridad de datos 

Para muchas empresas, los datos son un activo empresarial fundamental. ¿Pero cómo se mide el valor de esos datos? ¿Y qué sucede cuando esos datos se pierden o se roban? Como hemos visto con las recientes filtraciones de datos perfil de alto nivel, una amenaza a los datos de una empresa puede ser paralizante y potencialmente causar daños irreparables a la marca y reputación de la empresa.  

Según un estudio realizado en 2017 por el Ponemon Institute, el coste total medio de una violación de datos era de 1.000 millones de euros, estimado en 3,62 millones de dólares. 

Pero, ¿están las empresas haciendo todo lo que pueden para proteger y asegurar sus datos? Una industria que está creciendo rápidamente a un ritmo del 30% anual, en respuesta a las filtraciones y violación de datos, es el mercado de seguros de ciberseguridad.  

El seguro cibernético y de privacidad cubre la responsabilidad de una empresa por una violación de datos en la que la información personal del cliente es expuesta o robada por un hacker. 

Sin embargo, incluso con el crecimiento del mercado y la amenaza continua de violaciones de datos, por ejemplo, sólo el 15% de las empresas de EE.UU. tienen una póliza de seguro que cubre las violaciones de datos y la ciberseguridad. Además, si se observa ese 15% de las empresas estadounidenses cubiertas, la mayoría proviene de grandes instituciones financieras establecidas. 

La necesidad de políticas con las instituciones financieras es clara. Pero la tendencia se ampliará a otro tipo de instituciones porque ninguna es inmune a la amenaza de una violación de datos. 

amenaza de datos en la empresaDoug Laney, analista de Gartner, escribió recientemente un libro titulado “Infonomics: Cómo monetizar, gestionar y medir la información para obtener ventajas competitivas”. Ilustra  distintos modelos de cómo las empresas de todos los sectores pueden revisar el valor de sus datos, tanto en los modelos financieros y no financieros.  

Los modelos financieros se centran en el valor de coste, el valor económico y el valor de mercado de los datos. Estos valores pueden medir el coste de la adquisición de datos, la gestión interna de los datos y el valor de vender o dar licencia de uso sobre sus datos. 

Los modelos no financieros se centran en el valor intrínseco, el valor de negocio y el valor de rendimiento de los datos. Estos valores pueden medir la singularidad, la precisión, la pertinencia, el carácter interno de una empresa y su impacto en el medio ambiente.  

Los datos como producto básico significan que su valor sólo aumentará y, en última instancia, planteará nuevas preguntas sobre cómo esta materia prima continuará proyectando a las compañías a mayores niveles y ventajas. Y como cualquier producto, ¿de qué sirve si se puede robar sin consecuencias? 

 8. Función deIngeniero de Datos 

 He aquí una certeza: no se puede crear un tablero de control sin tener todos sus gráficos construidos de manera que se pueda entender el historial de lo que se está tratando de comunicar. Otro principio que probablemente se conozca es el siguiente: no se puede tener una fuente de datos confiable sin primero entender el tipo de datos que entra y sale de en un sistema. 

Los ingenieros de datos continuarán siendo una parte integral del movimiento de una organización para utilizar los datos y tomar mejores decisiones sobre su negocio. Entre 2013 y 2015, el número de ingenieros de datos se duplicó con creces. Y hasta octubre de 2017, había más de 2.500 puestos vacantes con el nombre de “ingeniero de datos” en el título de LinkedIn, lo que indica la creciente y continua demanda de esta especialidad. 

Entonces, ¿cuál es este papel y por qué es tan importante?

El ingeniero de datos es responsable de diseñar, construir y administrar las bases de datos operativas y analíticas de una empresa.

En otras palabras, es responsable de extraer datos de los sistemas fundacionales del negocio de una manera que pueda ser utilizada y aprovechada para identificar nuevas ideas y tomar decisiones. A medida que aumenta la tasa de datos y la capacidad de almacenamiento, será necesario contar con un especialista que tenga conocimiento técnico y de los diferentes sistemas, arquitecturas así como la capacidad de entender lo que el negocio quiere o necesita. 

Sin embargo, el rol de ingeniero de datos requiere un conjunto único de habilidades. Necesita entender el módulo del servicio, lo que hay en los datos y cómo puede servir al usuario empresarial. El ingeniero de datos también necesita desarrollar soluciones técnicas para hacer que los datos tengan usabilidad. 

En palabras de Michael Ashe, Reclutador Senior de Tableau, con más de 17 años de experiencia en procesos de reclutamiento técnico, señala que no es de extrañar que los datos y la capacidad de almacenamiento hayan seguido creciendo a pasos gigantescos. Los datos siempre necesitarán ser revisados y ajustados. Las empresas necesitan conectarse a este papel. Necesitan sumergirse en datos específicos para tomar decisiones de negocios que generen impacto positivo en sus resultados de gestión.

9. Ubicación de las cosas

Es una subestimación señalar que la proliferación de internet de las cosas  o “Internet of Things” (interconexión digital de objetos cotidianos con Internet) ha impulsado un crecimiento monumental en el número de dispositivos conectados que vemos en el mundo. Todos estos dispositivos interactúan entre sí y capturan datos que están registrando cada vez más  experiencias de conexión. De hecho, Gartner predice que para 2020 el número de dispositivos disponibles para los consumidores se duplicará con creces “con 20.400 millones de dispositivos  con internet de las cosas conectados online”. Internet of Things o internet de las cosas

Incluso con este crecimiento, los casos de uso y la implementación de datos en internet no han seguido el mismo camino esperado. Las empresas están preocupadas por la seguridad, pero la mayoría no tiene las habilidades organizativas adecuadas ni la infraestructura técnica interna con otras aplicaciones y plataformas que sirvan de soporte a datos de internet de las cosas. 

Una tendencia positiva que estamos observando es el uso y las ventajas para aprovechar los datos basados en la localización con dispositivos con conexión de Internet con más cosas u objetos que con personas. Esta subcategoría, denominada “localización de cosas“, permite a los dispositivos de internet de las cosas, detectar y comunicar su posición geográfica. Al saber dónde se encuentra un dispositivo,  permite añadir contexto, comprender mejor lo que está ocurriendo y lo que se predice que ocurrirá en un lugar específico. 

Para las compañías y organizaciones que buscan captar esta recopilación de datos, se está viendo que utilizan diferentes tecnologías. Por ejemplo, los hospitales, las tiendas y los hoteles han comenzado a utilizar la tecnología Bluetooth Low Energy (BLE) para los servicios de localización en interiores, que normalmente resultaba difícil para el GPS proporcionar una localización contextual. La tecnología puede ser utilizada para rastrear activos específicos, personas e incluso interactuar con dispositivos móviles como relojes inteligentes, insignias o etiquetas con el fin de proporcionar experiencias personalizadas. 

En la medida en que se relaciona con el análisis de los datos, las cifras basadas en la ubicación pueden verse como una entrada frente a una salida de resultados. Si los datos están disponibles, los analistas pueden incorporar esta información a sus modelos de análisis para entender mejor lo que está sucediendo, dónde está sucediendo, y lo que deben esperar que suceda en un determinado contexto. 

10. Inversión Académica

 La Universidad Estatal de Carolina del Norte alberga el primer programa de Máster en Análisis de Ciencias. Dicho programa se encuentra en su Instituto de Analítica Avanzada (IAA), un centro de datos con la misión de “producir los mejores profesionales de la analítica del mundo, individuos que dominan métodos complejos y herramientas para el modelado de datos a gran escala y que tienen una pasión por resolver problemas desafiantes…” 

La Universidad de California, San Diego, lanzó un primer proyecto para su institución: una licenciatura con especialización en ciencias de la información.  También planificó con una fuente de donación de ex-alumnos, la creación de un instituto de ciencias de la información. Siguiendo el ejemplo, UC Berkeley, UC Davis y UC Santa Cruz han aumentado sus opciones de análisis y ciencia de datos para los estudiantes, con una demanda que supera las expectativas. Pero, ¿por qué?  

Habilidad Analítica como fuerza laboralSegún un estudio reciente de PwC, para el año 2021, el 69% de los empleadores exigirá habilidades de análisis y ciencia de datos a los candidatos a un puesto de trabajo. A medida que crece la demanda de los empleadores, la urgencia de llenar un embudo de fanáticos de los datos altamente cualificados se vuelve cada vez más crítica. Pero, en la realidad existe una brecha.  El mismo informe de PwC cita que sólo el 23% de los graduados de la universidad tendrá las habilidades necesarias para competir al nivel que exigen los empleadores. Una encuesta reciente del MIT (Massachusets Institute of Technology) encontró que el 40% de los gerentes tienen problemas para contratar talento con perfil analítico. 

Las duras habilidades de la analítica ya no son optativas; son un requisito. Desde el 2018, se comienza a ver un enfoque más riguroso para asegurar que los estudiantes posean las habilidades de análisis técnico y visión estratégica de gestión para unirse a la fuerza laboral moderna. Y, a medida que las empresas continúen perfeccionando sus datos para extraer el máximo valor, la demanda de una fuerza laboral altamente conocedora de los datos existirá y continuará creciendo. 

 

Los comentarios están cerrados.