Mejora de procesos y ahorro de costos mediante la automatización para un líder de servicios financieros
Antecedentes del cliente:
Cliente: Banco de inversión multinacional y empresa de servicios financieros
Industria: Industria de servicios bancarios y financieros
Productos y servicios: productos de inversión y capacidades bancarias
Área de operaciones: más de 50 países
Número de empleados: más de 70,000
Desafío:
Un banco de inversión multinacional, así como empresa de servicios financieros, había experimentado un crecimiento significativo, y las proyecciones comerciales anticipaban que la tendencia positiva continuaría. El subsecuente crecimiento de los datos haría hincapié en las capacidades de almacenamiento y cómpito existentes de la empresa, y surgirían riesgos operativos si los datos se aislaran demasiado y causaran un aumento de los gastos en las instalaciones. Para maximizar su eficiencia, visibilidad y colaboración, la compañía esperaba migrar a una plataforma que mejorara su capacidad para procesar grandes conjuntos de datos mientras escalaba para cumplir con las proyecciones de crecimiento. También esperaba ahorrar costos al tiempo que mejoraba la seguridad general.
Solución:
El cliente quería descargar una cantidad significativa de sus cargas de trabajo de big data y consolidar su data lake en Azure para reducir los gastos operativos y mejorar la seguridad de todo su ecosistema a través de una plataforma escalable que responde a los clientes más rápidamente, incluso durante las horas pico de operación. Con el objetivo de facilitar la modernización de la plataforma sin problemas y una entrega más rápida, Wipro desarrolló una plataforma basada en IntelliProc para automatizar las cargas de trabajo por conversión de big data a su equivalente en Spark e implementarla en Azure Databricks. La plataforma Databricks se configuró para ingerir datos de varias fuentes y realizar análisis, eliminando el problema de los datos en silos. La automatización de alto nivel de IntelliProc de conversión de lógica empresarial y características de validación de mapeo de datos fue diseñada para mejorar la integridad y precisión de los datos para el cliente, lo que anteriormente era un desafío para sus equipos.
Impacto de negocios:
IntelliProc modernizó las cargas de trabajo de big data existentes a escala para aprovechar los beneficios de Azure Databricks. La fase de desarrollo, calidad de datos y pruebas garantizó un 35% de ahorro en el esfuerzo, y la implementación del entorno de Azure Databricks redujo significativamente los gastos en las instalaciones y ayudó a eliminar el ecosistema de datos en silos tradicional que condujo a una mejor colaboración entre los equipos de datos de una manera más entorno seguro. El uso de Databricks mejoró la productividad del equipo de datos del cliente en un 20% y el entorno escalable proporcionó mejores capacidades informáticas con una mayor eficiencia operativa y redujo los costos de infraestructura en un 25%.
IntelliProc también convirtió cargas de trabajo de big data (scripts de Hive e Impala en su equivalente de Spark), lo que generó una reducción general del esfuerzo de más del 60%. Los scripts convertidos no tuvieron cambios en la lógica empresarial, lo que ahorró costos y tiempo. La fase de recopilación de requisitos representó hasta un 40% de ahorro de esfuerzo.