Veículo: Revista ANEFAC
Data: Julho/Agosto de 2017

Contabilidade
"Dilúvio de dados” nos departamentos contábeis
O dilema de companhias e analistas de mercado para depurar a crescente quantidade de informações

Em 1965, o físico-químico norte-americano Gordon Moore, que viria a ser um dos fundadores da Intel Corporation,
demonstrou que havia uma tendência no desenvolvimento de semicondutores: a cada 18 meses a quantidade de componentes em um Circuito Integrado seria duplicada, assim, quando o limiar máximo de densidade fosse atingido, este componente passaria a ser utilizado para produzir circuitos ainda mais densos, numa cadeia de transformações cumulativas e mútuas. Essa tendência ficou conhecida como Lei de Moore.

Entre sua formulação e a virada do milênio, passamos por algo como dez revoluções tecnológicas sucessivas, uma
escala de mudança jamais vista na história da humanidade. O resultado dessa revolução permanente está em nossos
Smartphone, carros, eletrodomésticos inteligentes, aplicativos e computadores, cada vez menores e com cada vez mais capacidade. Esta é a base para o “dilúvio de dados” que estamos vivendo. Não é para menos que, como indivíduos, estamos sobrecarregados com a quantidade de dados recebida diariamente e nos vemos em sérias
dificuldades para filtrar informações realmente importantes.

Essa situação replica-se nos departamentos de contabilidade de grandes companhias em um volume exponencialmente maior. Na visão de Eduardo Lucano, presidente executivo da Abrasca (Associação Brasileira de Companhias Abertas), há uma sobrecarga de dados disponíveis e muitas informações são replicadas na contabilidade por falta de estruturação e armazenamento inteligente. A solução está na tecnologia da informação, “essencial para a organização e extração de análises que colaboram em não sobrecarregar os departamentos de
contabilidade na busca por essas informações”, diz.

Na opinião de Lucano, a chave para superar o desafio de lidar com o grande volume de dados processados diariamente a fim de chegar àquilo que é essencial está no uso de tecnolgias da informação. “O ERP e o BI (Business Inteligence) com bancos de dados unificados, bem estruturados e parametrizados, traz uma maior precisão e previsão na análise das informações contábeis das companhias, tornando mais eficiente a tomada de decisão na empresa”, explica. Apesar de ser a tecnologia a causa da crescente quantidade de dados, na mesma medida, ela proporciona facilidades no tratamento e na hierarquização deles. “A facilidade só depende da correta estruturação dos dados e disponibilidade de ferramentas com alto desempenho”, diz. À frente da Diretoria de Controladoria e Planejamento Financeiro da Raízen, Luiz Roberto Tibério concorda que há uma quantidade significativa de dados produzidos, uma vez que as empresas estão gerando cada vez mais conteúdo e informações relevantes.“Junto a isso surge a necessidade cada vez maior de manter estas informações armazenadas para o controle de todas as operações”, considera. 

Segundo o diretor, o norteador da prática adotada pela Raízen para ter controle total das operações é selecionar e filtrar os dados para gerar informações que agreguem valor às operações futuras. “Tudo é identificado, classificado e agrupado em diferentes níveis de organização para que cada colaborador tenha acesso às informações relevantes ao desempenho das atividades de sua responsabilidade”, explica. “São as informações com inteligência, e não os dados, que são usadas para as tomadas de decisões dentro da companhia”, destaca.

Aposta na tecnologia

Lidar com um volume de dados contábeis exponencialmente maior não significa que as empresas estejam à beira de um colapso informativo. Na verdade, há mais acesso a informações do que antes. Agora o dilema é construir
mecanismos que permitam depurar essa quantidade de informações. Quem diz isso é Haroldo Levy, coordenador do Codim (Comitê de Orientação de Informações ao Mercado). “O número de informações realmente cresceu. Hoje
temos muita coisa que antes não tínhamos, só que, muitas vezes, aquilo que é relevante fica perdido no meio dessa
quantidade de informações e você não consegue encontrar. E os profissionais não têm tempo suficiente para fazer essa busca tão detalhada e em quantidades grandes”, argumenta.

O dilema afeta as companhias e o mercado. As primeiras precisam fornecer as melhores informações, enquanto o
segundo, por meio de profissionais de investimento, analisá-las. O Codim tem uma série de pronunciamentos e notas técnicas orientando as companhias acerca das melhores práticas de divulgação de informações, indicando o que informar, como informar e para que público. Segundo Levy, o objetivo é mitigar alguns desses problemas de quantidade de informações não relevantes, tentando focar no que é a melhor prática.

“No Codim a gente fala de público estratégico. Os principais públicos estratégicos dentro dos mercados de capitais
são os profissionais de investimento. Então, este profissional vai montar as suas planilhas, juntar as informações, e [com uma ferramenta adequada] ele teria uma facilidade maior de visualizar essas informações, de trazê-las já de
forma comparada, inclusive com o resto do mundo”, argumenta, defendendo maiores investimentos em tecnologia.

Voltando à Lei de Moore, estamos falando da condensação de semicondutores a nano escala, que seria um tipo de mensuração da transformação tecnológica. Mas essa mensuração não permite medir nem a intensidade com que as informações são transmitidas nem o nível de tecnologia que as pessoas necessitam para lidar com essas informações.

Para Breno França, professor do Instituto de Computação da Unicamp, fazer essa mensuração é muito complicado, principalmente se tentarmos considerar um valor numérico exato.

“Entretanto, é só você pensar no impacto social e econômico que a ausência dessas tecnologias teria”, destaca. Pesquisador de temas relacionados à Engenharia de Software Experimental, Métodos Ágeis de Desenvolvimento
de Software, Arquitetura de Software e Simulação Computacional, França argumenta que soluções tecnológicas
defasadas, não integradas ou não alinhadas aos objetivos de negócio e à cultura da empresa geram perdas financeiras consideráveis. Ele argumenta que um software é desenvolvido para resolver, ou ajudar a resolver, um problema. Se ele passa a não mais resolver esse problema de forma eficaz, ele está obsoleto e precisa evoluir. “Caso o esforço ou custo na evolução seja maior que desenvolver ou adquirir um novo, é o fim do ciclo de vida
deste software”, afirma.

França defende que o investimento em tecnologia não é apenas um diferencial competitivo, mas em muitos casos
e áreas de atuação é uma questão de sobrevivência da organização. “A solução de software ideal é aquela que, com
o menor custo, traz o maior retorno de investimento em valor para o negócio. Mas isso nem sempre pode ser atingido no cenário real. Ainda, essa avaliação de custo de software e valor agregado é sempre muito nebulosa em estágios iniciais de desenvolvimento ou implantação de sistemas”, observa. E conclui: “Essas questões transcendem a tecnologia, que é importante, mas deve ser vista mais como um meio para atingir objetivos de
negócios e oferecer facilidades do que como um fim por si só”.

Link da matéria:
https://www.anefac.com.br/RevistasSumarios.aspx?ID=11423