Você está na página 1de 4

Governança de Dados-Práticas-Conceitos e Novos caminhos

GD 2.0
Carlos Barbieri

Parte-1-Dados e Processos (cont)


GD 2.0-Governança de dados

Parte 1-GD 2.0-História da “carochinha” dos dados e processos, para contextualização básica da GD :

• Controles de Processos e Produtos:


o Vamos começar considerando, de forma simplificada e metafórica que processos e dados
são os dois pilares fundamentais que sustentam os bits e bytes da computação até hoje.
Pelo menos, até quando chegar a computação quântica e os bits perderem aquela
bipolaridade de estado (ora apagados, ora acesos), isso deverá prevalecer. Os programas,
que nada mais são do que processos e regras codificadas, representam o passo a passo
algorítmico que objetiva a execução de algo. Os dados, por sua vez, aparecem como
ingredientes de entradas e como resultados de saídas. Fazendo-se um paralelo simplista
com a culinária, isso fica mais claro, quando se observa que uma receita, no fundo,
representa “o como fazer” nos seus passos definidos, e os ingredientes iniciais e
intermediários, além do produto final (prato), podem ser vistos como os dados. Costumo
até exemplificar, nas aulas de metadados, que aquela plaquinha, perto do “réchaud” de
inox, nos restaurantes self-service, são uma forma espetacular de materialização de
metadados. Sem elas, você acaba comendo o que não quer ou não pode, se sujeitando a
problemas, da mesma forma quando você tem os dados, mas não sabe muito bem o que
eles representam. Com essa visão simplificada de dados e processos, importante para
entendermos a GD1.0 e GD2.0, aqui fazemos uma pausa para uma digressão histórica.
• História dos controles iniciais:
o Nas primeiras décadas após o final da 2ª guerra (1945), começaram os primeiros
movimentos em direção à melhoria de Processos e Produtos, com empresas interessadas
na mudança do seu nível de qualidade. A indústria japonesa, desgastada naquele
momento, foi em direção aos pensadores da época, que já desenvolviam os conceitos de
Qualidade e controle estatístico. Assim surgiu Edwards Deming que expandiu os
conceitos de Walter Shewhart com a inclusão de elementos estatísticos. Foi denominado
Ciclo de Shewhart, que evoluiu para o ainda hoje usual e aplicado PDCA. Antes já havia
sido proposta a primeira norma ISO(que tratava de padronização de processos e
produtos), nascida em 1947 e, em 1970 surgiu a ISO-9000 seguida da ISO-9001 em 1987,
talvez a mais célebre representante das normas de qualidade de processos, produtos e
serviços. Em 1980, surgiu o Modelo CMM/CMMI, do berço da Universidade Carnegie
Mellon, para melhoria de processos de engenharia de software, sendo que a versão
CMMI 1.0 apareceu em 1991. Esse ambiente todo foi o berço dos primeiros conceitos de
qualidade de processos de software. Assim, se observa que esse cultivo pela qualidade da
“receita”(do como fazer, padronizar, ou melhorar os resultados) favoreceu o olhar mais
focado nos controles e qualidade dos processos.
o Por outro lado, a busca pela melhoria dos conceitos dos dados, demoraram mais. Os
dados sempre tiveram uma posição meio secundária e colateral com relação aos
processos. O que se viu, a partir dos anos 60, com os sistemas automatizados foi a
evolução de SGBD-Sistemas Gerenciadores de Bancos de dados, mas com foco muito
concentrado na camada física, último reduto dos bytes agregados em registros ou
tabelas, habitando os segmentos e espaços de discos. Nessa linha, o que houve foi uma
evolução nos aspectos de armazenamento físico e em linguagens de acesso aos dados.
Saímos dos FMS-File Management Systems (VSAM, por exemplo) para os primeiros
SGBD´s que atrelavam armazenamento com comandos de acessos, embutidos em
linguagens procedurais(TOTAL, IMS, Adabas etc). A seguir vieram os Bancos Relacionais,
com a novidade vitoriosa do SQL, via expressão de comandos. Logo surgiram os Bancos
OO-orientados a objetos, que surfaram muito mais na onda das linguagens OO (como
Java), sensações que apareceram antes da utilização de “Objetos” como “engine” de
dados. Os Bancos de dados BDOO-Orientados a objetos, de vida curta, na realidade
submergiram e praticamente desapareceram. Finalmente mudamos para os Bancos
NoSQL, com a chegada de dados com estruturas mais complexas, gritando por maior
liberdade no manuseio (fim da normalização dos dados, adoção do estilo schemaless, por
exemplo e de transacionalidade padrão BASE ). O que se viu, nesse momento de visão
pró-dados, que envolvia um controle mais conceitual sobre eles, foi a proposição de
Peter Chen, ao introduzir os elementos de modelagem de dados, que subia o nível para
planos de abstração que não eram usados(Modelagem conceitual de dados,
enriquecimento de relacionamentos, metadados de negócios, etc). Mas isso não foi
adiante e com a chegada dos Bancos NoSQL, a aplicação de modelagem de dados como
elemento de conhecimento e documentação tornou-se absolutamente residual. Alguns
movimentos normativos pró-dados surgiram nos anos 1990, com a legislação
Basel(Basiléia), que impunha uma maior qualidade de dados aos Bancos Centrais,
visando à minimização dos seus riscos. Os primeiros frameworks completos de Gestão e
Governança de dados, somente começaram a aparecer nos anos 2000, com os primeiros
elementos do DAMA-DMBoK1, em 2009, seguido do DMM-Data Management Maturity
Model, do CMMI Institute, em 2014 e do DAMA-DMBoK2, lançado em 2017. Assim
começaram a aparecer os conceitos de processos específicos de dados(e não mais dados
imersos nos processos), como Arquitetura, Modelagem, Qualidade, Metadados,
Segurança, DW/BI, Interoperabilidade , além de visões de maturidade das empresas com
relação à Gestão dos dados. Tudo focado agora no elemento fundamental: os dados.
• Resumo da ópera:
o O resumo da ópera é claro e apresenta um cenário onde a preocupação com qualidade
de processos antecedendo em muito as proposições de melhorias de dados, fizeram
certa diferença. Esse gap cultural tem muito a ver com a maior presença de frameworks e
metodologias para melhorias de processos, colocadas muito antes das de dados. E por
conseguinte, um menor espaço nas empresas para se considerar os dados como
elemento merecedor de um foco exclusivo na sua qualidade, controle e gestão. Essas
barreiras culturais impostas pelo tempo e pela visão gerencial da época, tem merecido a
atenção dos especialistas em dados , como por exemplo o capítulo 17 do DMBoK2,
dedicado somente às mudanças organizacionais(OCM-Organizational Change
Management), no fundo uma visão de “como expandir a cultura dos dados” e eliminar as
restrições espessas e enraizadas em muitas empresas ainda, apesar do glamour do “data
literacy”.
o Fiz essa caminhada meio “carochinha dos dados e processos” para ligar com a influência
exercida nos novos caminhos da GD, tema dos artigos. Agora, com o crescimento de Big
Data e seus derivados, como os aspectos de nuvem, as evoluções da IA (que ressurge em
outra onda), essas percepções de maior cuidado com os dados começam a aparecer,
implicitamente, na forma de rótulos como “Data literacy”, transformação digital,
sistemas “data driven” etc. Houve um nítido deslocamento do foco de soluções centradas
em “processos” para as orientadas a “dados” (BI, Analytics,Machine Learning, etc). Isso
significa que a Gestão de dados, observada como invólucro que contempla Governança e
Gerências, será novamente convocada. Ela, que fora praticada no conceito inicialmente
proposto(GD 1.0), concebida no ambiente mais forte de “processos”, agora terá que
sofrer ajustes e melhorias(GD 2.0), para uma aplicação mais efetiva no momento
predominantemente orientado aos dados. De um lado, o argumento de se dizer e
convencer que os dados são ativos organizacionais, que devem ser tratados como tal,
dentro do cone da GD, se consolida e fortalece. Do outro, o desafio de se agilizar
processos, resultados e decisões, sugere ajustes na GD, minimizando um certo efeito de
obstáculo, normalmente atribuído aos mecanismos de controles de dados. E a solução,
deverá ser encontrada, em cada empresa, de forma equilibrada com sua cultura e
maturidade, como sempre, ali no metade do caminho..