Datos Maestros™

Capacidades

Deje que nuestro equipo de profesionales lo ayuden a transformar los datos en valor comercial

Nuestras Capacidades

Cuestionario de Capacidades

Capacidad para acceder y aplicar reglas de calidad de datos a una amplia gama de fuentes de datos, tanto locales como en la nube.​

Análisis, creación de perfiles y visualización de la calidad de los datos​

El análisis de datos para proporcionar a los usuarios empresariales y de TI información sobre la calidad de los datos y ayudar a identificar y comprender los problemas de calidad de los datos.

Monitoreo

Mecanismos para ayudar a la comprensión y garantía continuas de la calidad de los datos a través del monitoreo

Análisis​

Capacidades integradas para la descomposición de datos en sus componentes​

Estandarización y limpieza​

Capacidades integradas para aplicar estándares industriales/locales, reglas comerciales o base de conocimiento para modificar datos a formatos, valores y diseños específicos​

Coincidencia, vinculación y fusión​

Capacidades integradas para hacer coincidir, vincular y fusionar entradas de datos relacionados dentro o entre conjuntos de datos utilizando una variedad de técnicas, como el aprendizaje automático

Soporte multidominio​

Capacidades empaquetadas para áreas de asunto de datos específicas​

Validación ​ De direcciones/​ Geocodificación​

Soporte para la estandarización y limpieza de datos relacionados con la ubicación​

Curación y enriquecimiento de datos​

Capacidad para integrar datos de fuentes externas para mejorar la integridad y agregar valor​

Resolución de problemas y flujo de trabajo​

Capacidad para capturar, conciliar e interoperar metadatos relacionados con el proceso de calidad de datos​

Gestión de metadatos​

Capacidad para capturar, conciliar e interoperar metadatos relacionados con el proceso de calidad de datos​

Entorno DevOps​

Capacidades para facilitar la configuración de operaciones y procesos de calidad de datos​

Entorno de implementación​

Estilos de implementación, opciones de hardware y sistema operativo para la implementación de operaciones de calidad de datos​

Arquitectura e Integración​

Concordancia, coherencia e interoperabilidad entre los diversos componentes del conjunto de herramientas de calidad de datos y las herramientas de terceros​

Usabilidad

Idoneidad de las herramientas para involucrar y respaldar los diversos roles (especialmente roles comerciales) requeridos en una iniciativa de calidad de datos​

Cuestionario de Capacidades

Conectividad y acceso nativo a los datos almacenados en estructuras no relacionales (por ejemplo, Sistema de gestión de la información [IMS]

Compatibilidad con el acceso y la interpretación de una variedad de formatos de archivoincluidos SQL, MySQL, PostgreSQL, ORACLE, DB2, ODBC, EXCEL, CSV, FLAT TEXT, TERADATA, DBF, SNOWFLAKE. OLE DB.

Soporte para lectura y escritura de estructuras de datos XML utilizando funciones nativas o externas.

Capacidad para procesar y aplicar reglas de calidad de datos a formatos de mensajes estándar de la industria (p. ej., EDI, SWIFT).

Capacidad para acceder a datos en aplicaciones empaquetadas locales comunes a través de las interfaces de aplicaciones estándar proporcionadas por los proveedores.​

Capacidad para acceder a los datos almacenados en SaaS común (por ejemplo, fuerza de venta).​

Conectividad a API y estructuras de datos de fuentes populares de redes sociales (por ejemplo, LinkedIn, Twitter).​

Capacidad para acceder a datos en tipos de fuentes semiestructuradas y no estructuradas (por ejemplo, correo electrónico, web, herramientas de productividad de oficina y repositorios de contenido) utilizando diversas técnicas, como el procesamiento de lenguaje natural.​

Análisis, creación de perfiles y visualización de la calidad de los datos

Capacidad para perfilar datos en fuentes de datos existentes (como se mencionó anteriormente), sin necesidad de extraer o mover los datos.

Capacidad para perfilar datos "en vuelo"; es decir, mientras los datos se mueven (por ejemplo, transmisión o mensajería).​

Capacidad para perfilar datos fuera de las fuentes de datos extrayendo e importando los datos en la herramienta de calidad de datos o en repositorios de terceros.​

Rango de análisis preconstruidos sobre atributos/columnas/campos individuales (p. ej., mínimo, máximo, distribuciones de frecuencia de valores y patrones, y otros).​

Gama de análisis preconstruidos para identificar relaciones, patrones, brechas de integridad y duplicación, por ejemplo, entre múltiples atributos/columnas/campos y entre tablas, bases de datos y archivos.​

Capacidad para configurar reglas definidas por el usuario y ejecutar estos análisis de perfiles.​

Capacidad para analizar tendencias en los resultados de perfiles a lo largo del tiempo y visualizar tendencias a través de cuadros de mando, gráficos e informes, entre otros.​

Capacidad para analizar cuándo las tendencias en las métricas de calidad de los datos superarán los umbrales predefinidos y crear modelos analíticos avanzados para la calidad de los datos.​

Capacidad para presentar los resultados de perfiles en formato de informe textual.​

Entorno visual que permite a los usuarios comerciales y técnicos diseñar de forma interactiva reglas de calidad de datos, flujos de trabajo y modelos, por ejemplo.​

Informes y cuadros de mando prediseñados para exponer los resultados de la creación de perfiles.​

Tableros gráficos prediseñados que presentan resultados de perfiles (p. ej., indicadores y medidores que comparan las métricas reales con los límites/controles especificados por el usuario).​

Capacidad para personalizar formatos de presentación gráficos (como tableros) y tabulares.

Capacidad para presentar los resultados de la elaboración de perfiles utilizando informes de terceros o herramientas de análisis empresarial (de forma gráfica o tabular).​

Ejecución ad hoc de procesos de creación de perfiles a través de una interfaz visual de usuario.​

Ejecución ad hoc de procesos de creación de perfiles a través de una interfaz visual de usuario.​

Ejecución ad hoc de procesos de creación de perfiles a través de una interfaz visual de usuario.

Monitoreo​

Capacidad para monitorear problemas de calidad de datos en almacenes de datos persistentes (por ejemplo, bases de datos, archivos).

Capacidad para monitorear la detección de problemas de calidad de datos en flujos de datos, incluidos flujos de datos de IOT.​

Capacidad para desarrollar reglas de negocio que verifiquen problemas de calidad específicos.​

Capacidad para implementar reglas de monitoreo dentro de aplicaciones y flujos de datos existentes (es decir, fuera de las herramientas de calidad de datos o fuentes de datos).​

Capacidad para implementar reglas de monitoreo como un proceso independiente (es decir, dentro de herramientas de calidad de datos o fuentes de datos).​

Capacidad para generar varios tipos de alertas (por ejemplo, correo electrónico, mensajes de texto o registros) si los datos violan las reglas de monitoreo.​

Informes preconstruidos y personalizables que muestran números y tipos de resultados de monitoreo (por ejemplo, violaciones de reglas a lo largo del tiempo).​

Utilice el aprendizaje automático para saber qué han hecho los usuarios, como administradores de la información, para crear reglas/trabajos de supervisión y ejecutarlos en entornos en línea y fuera de línea.​

Capacidad para registrar y analizar estadísticas de tiempo de ejecución para determinar el uso adecuado de los procesos de calidad de datos (incluidos los derechos de acceso de los usuarios y la evaluación del impacto del aprendizaje automático). Invierte los cambios en la calidad de los datos si es necesario.​

Análisis​

Capacidad para dividir campos de texto haciendo coincidir cadenas de caracteres con bases de conocimiento empaquetadas de términos, nombres y más.

Capacidad para dividir campos de texto haciendo coincidir cadenas de caracteres con bases de conocimiento empaquetadas de términos, nombres y más.​

Facilities for adding to or customizing packaged knowledge bases, aFacilidades para agregar o personalizar bases de conocimiento empaquetadas y la capacidad de crear nuevas bases de conocimiento en repositorios de proveedores o bases de datos externas.​nd the ability to create new knowledge bases in vendor repositories or external databases.

Algoritmos y técnicas de aprendizaje automático empaquetados para automatizar el análisis sofisticado de datos listos para usar. Las técnicas de muestra incluyen el procesamiento del lenguaje natural y la extracción de entidades.​

Capacidad para realizar operaciones de análisis utilizando bases de conocimiento de fuentes de terceros (por ejemplo, mercados de datos).​

Funcionalidad para estructuras de datos orientadas al contenido (por ejemplo, archivos PDF, documentos de escritorio y datos de IoT).​

Facilidades para configurar reglas de análisis definidas por el usuario.​

Bibliotecas pre-empaquetadas con términos, nombres y reglas comunes en toda la gama de idiomas y sistemas de escritura deseados.​

Estandarización y limpieza​

Transformaciones simples (por ejemplo, conversiones de tipos de datos, operaciones de concatenación y división de cadenas).​

Transformaciones moderadamente complejas (por ejemplo, operaciones de búsqueda y reemplazo).​

Transformaciones de orden superior (por ejemplo, operaciones de análisis sofisticadas en texto de formato libre y medios enriquecidos).​

Reglas preconstruidas para operaciones comunes de estandarización y limpieza (por ejemplo, formato de direcciones o números de teléfono, seguro social e identificación fiscal).​

Facilidades para desarrollar transformaciones personalizadas y extender transformaciones empaquetadas.​

Emparejar, vincular y fusionar​

Conectividad y acceso nativo a los datos almacenados en estructuras no relacionales.​

Compatibilidad con el acceso y la interpretación de una variedad de formatos de archivo, incluida la notación de objetos de JavaScript (JSON).​

Soporte para lectura y escritura de estructuras de datos XML utilizando funciones nativas o externas.​

Compatibilidad con sistemas de gestión de bases de datos en memoria y cuadrículas de datos en memoria.​

Capacidad para acceder a datos en aplicaciones empaquetadas locales comunes a través de las interfaces de aplicaciones estándar proporcionadas por los proveedores (por ejemplo, SAP, Siebel y Oracle eBusiness Suite).​

Soporte multidominio

Funcionalidad empaquetada para abordar los requisitos específicos de los problemas de calidad de los datos de la parte principal (p. ej., estandarización de nombres, direcciones, detalles de contacto y jerarquías, y fusión de registros de partes duplicados).​

Funcionalidad empaquetada para abordar problemas de calidad de datos para los empleados.​​

Funcionalidad empaquetada para abordar los problemas de calidad de datos para los empleados..​

Funcionalidad empaquetada para abordar problemas de calidad de datos para datos transaccionales (por ejemplo, pedidos o facturas).​

Funcionalidad empaquetada para abordar requisitos específicos de problemas de calidad de datos de productos y materiales (p. ej., estandarización de códigos y descripciones de productos, y fusión de registros de productos duplicados).​

Funcionalidad empaquetada para abordar requisitos específicos de datos financieros (p. ej., identificación de valores numéricos que exceden los límites especificados y verificación de totales de control).​

Funcionalidad empaquetada para abordar los requisitos específicos de la ubicación y los problemas de calidad de los datos de las instalaciones, como la estandarización y la comparación de la información espacial.​

Contenido de la industria preconstruido que tiene como objetivo acelerar ciertas industrias verticales (por ejemplo, financiera o de atención médica).​

Validación de direcciones/Geocodificación
​ Bibliotecas de direcciones postales​

Bibliotecas proporcionadas por proveedores certificadas por las autoridades postales pertinentes.​

Compatibilidad con extensiones de dirección (p. ej., el servicio de búsqueda de código Zip+4 del Servicio Postal de EE. UU.), notificación de cambio de dirección y validación del punto de entrega.​

Frecuencia y mecanismo por el cual se entregan y aplican las actualizaciones a las bibliotecas postales.​

Capacidad para etiquetar registros con información de geocodificación (p. ej., latitud y longitud).​

Curación y enriquecimiento de datos​

Alcance de las ofertas de enriquecimiento que abarcan las áreas temáticas y los tipos de datos deseados.​

Métodos de entrega de enriquecimiento (por ejemplo, llamadas de servicios por lotes y en tiempo real).​

Funcionalidades para permitir que el administrador de la información seleccione y evalúe la calidad de los datos a través de modelos de confianza (p. ej., sistemas de registro o uso ad hoc).​

Resolución de problemas y flujo de trabajo

Procesos y pasos preconstruidos que se utilizan para realizar tareas de calidad comunes y remediar problemas de calidad de datos (p. ej., proporcionar valores para datos incompletos, resolver conflictos de registros duplicados).​

Interfaz empresarial fácil de usar en la que los administradores de datos y otras partes interesadas ajenas a TI pueden revisar y gestionar procesos y problemas de calidad de datos.​

Funcionalidad para administrar el proceso de resolución de problemas de calidad de datos a través del flujo de trabajo de administración (por ejemplo, escalamiento de problemas, seguimiento y asignación de problemas, y monitoreo de la resolución de problemas).​

Capacidad para guardar flujos de trabajo visuales, modelos y componentes analíticos para la calidad de los datos como componentes reutilizables en bibliotecas a las que pueden acceder otros usuarios autorizados.​

Capacidad para guardar flujos de trabajo visuales, modelos y componentes analíticos para la calidad de los datos como componentes reutilizables en bibliotecas a las que pueden acceder otros usuarios autorizados.​

Capacidad para integrar y ejecutar pasos de resolución de calidad de datos a través de herramientas populares de BPM.​

Gestión de metadatos

Capacidad para capturar metadatos comerciales (como reglas, políticas y glosario comercial) y administrar todo su ciclo de vida.​

Un repositorio de metadatos común en todas las herramientas de calidad de datos del proveedor para permitir un control sencillo de los metadatos comerciales y técnicos.​

Descubrimiento y adquisición automatizados de metadatos de fuentes de datos, aplicaciones y otras herramientas, tanto por lotes como en tiempo real.​

Capacidad para inferir, crear y extraer metadatos para facilitar el análisis de la calidad de los datos (p. ej., etiquetado automático).​

Capacidad para ampliar el repositorio de metadatos con reglas, atributos y relaciones personalizados.​

Entorno DevOps

Gestión del flujo de trabajo para respaldar el desarrollo, la prueba y la implementación de trabajos de calidad de datos, adaptándose a diversas metodologías de desarrollo, como Agile.​

Seguridad granular basada en roles y control de acceso, basado en roles específicos como desarrolladores, administradores y administradores de datos.​

Funcionalidad manual y automática para promover la reutilización (por ejemplo, la identificación de redundancias entre desarrolladores y proyectos).​

Facilidades para pruebas (por ejemplo, pruebas unitarias, de integración y de esfuerzo), depuración y solución general de problemas de actividades de desarrollo en proceso.​

Funcionalidad para permitir cambios en los artefactos comerciales y de TI de una manera bien controlada, auditable y comprensible.​

Manejo y almacenamiento de errores, detección de tendencias y obtención de detalles de diagnóstico.​

Herramientas y facilidades para monitorear y controlar procesos en tiempo de ejecución.​

Entorno de implementación​

Instalación local tradicional e implementación de software en el sitio del cliente.​

Implementación de software alojado fuera de las instalaciones (es decir, implementación dedicada de un solo arrendatario) en la infraestructura de proveedores o de terceros.​

Plataforma de calidad de datos como servicio (es decir, los clientes no instalan software y, por lo general, siguen precios basados en suscripción y multiinquilino).​

Funcionalidad manual y automática para promover la reutilización (por ejemplo, la identificación de redundancias entre desarrolladores y proyectos).​

Instalación y ejecución por parte del cliente en infraestructura de nube pública (p. ej., AWS o Microsoft Azure).​

Instalación y ejecución por parte del cliente en infraestructura de nube privada​

Capacidad para ejecutar procesos de calidad de datos en un modo por lotes independiente.​

Capacidad para ejecutar operaciones de calidad de datos en tiempo real, de manera interactiva.​

Soporte para despliegue en entornos Windows.​

Compatibilidad con implementaciones virtualizadas compartidas.​

Capacidad para implementar todos los aspectos de la funcionalidad de calidad de datos (como la creación de perfiles y la limpieza de datos) como servicios en una arquitectura orientada a servicios (por ejemplo, servicios web).​

Capacidad para publicar servicios de calidad de datos en repositorios y registros de servicios.​

Arquitectura e Integración​

Cuando las funcionalidades de calidad de datos se entregan como múltiples productos, ¿qué tan bien se integran estos productos (p. ej., reglas para compartir y definiciones de glosario entre componentes/productos)?​

Interoperabilidad con otras herramientas de integración como y aplicaciones a través de interfaces certificadas, interfaces basadas en estándares y robustas API propietarias.​

Integración prediseñada con herramientas específicas de integración de datos.​

Integración preconstruida para compartir y consumir reglas/procesos de calidad de datos hacia y desde las soluciones de preparación de datos de autoservicio utilizadas por los roles comerciales.​

Cuando las funcionalidades de calidad de datos se entregan como múltiples productos, ¿qué tan bien se integran estos productos (p. ej., reglas para compartir y definiciones de glosario entre componentes/productos)?​

Integración preconstruida para compartir y consumir reglas/procesos de calidad de datos hacia y desde soluciones de análisis empresarial.​

Capacidad para distribuir reglas de calidad de datos a través de diversas plataformas; procesamiento distribuido coordinado a través de múltiples plataformas.​

Usabilidad​

Idoneidad de la interfaz y la funcionalidad para involucrar roles comerciales (como administradores de datos y usuarios comerciales) y para respaldar sus tareas laborales.​

Capacidades para permitir que los integrantes del negocio creen y administren procesos de calidad de datos con soporte de TI limitado o nulo, tanto para entornos tradicionales como de big data.​

Un entorno visual que permite a los usuarios empresariales preparar, buscar, perfilar y catalogar activos de datos de forma interactiva, así como etiquetar y anotar datos para futuras exploraciones.​

Metáfora de desarrollo que permite todos los niveles de complejidad en la lógica de procesamiento de calidad de datos.​

Integración con sus herramientas y software existentes:

Integramos datos enriquecidos con su flujo de trabajo y herramientas existentes para que su equipo tenga datos de fácil acceso que sean procesables y produzcan resultados reales.

Datos y Análisis, Justicia y Seguridad
Licencias, Modernización
¿Lo hemos convencido?
¡Listo para probar por usted mismo nuestro software!
Inicie con una prueba gratuita de 30 días.
Permita que nuestra herramienta junto con nuestro equipo especializado le ayuden en la transformación digital de su empresa