sexta-feira, 16 de novembro de 2007

7-ELEVEN do Japão – Reinventando o Modelo de Negócios do Varejo

Resumo do Estudo de Caso

O que é a Seven-Eleven do Japão - SEJ?

A SEJ é a maior rede de Lojas de Conveniência do Japão e o oitavo maior varejista do mundo. Ela é totalmente orientada aos desejos dos seus consumidores, oferecendo um rico sortimento de produtos com lojas confortáveis e aprazíveis. As lojas da SEJ não são somente um local de compras mas também de relaxamento e entretenimento.

Características da Cadeia de Suprimentos Japonesa.

Segundo especialistas, a cadeia de distribuição Japonesa é peculiar e oferece barreiras de negociação para a entrada de grandes redes de varejo com as características da SEJ.

Ela é composta de pequenos distribuidores e varejistas num sistema multi-camadas formando uma complexa e exclusiva rede de relacionamentos, onde além da eficiência econômica, contam também os fortes laços de relacionamento humano. Para se adaptar a este cenário, diferente do existente em outros países onde existem lojas da Seven-Eleven, a SEJ teve que se adequar diferenciando-se das demais co-irmãs de outros países.

Características do Varejo Japonês.

O varejo Japonês é dominado por pequenos comércios. Empresas com no máximo 4 funcionários dominam 70% do número total de lojas.

Devido às restrições físicas, as lojas do varejo Japonês são pequenas, possuem grande sortimento de produtos e baixo estoque. São comércios familiares e os funcionários são os próprios membros da família.

A combinação de pequenos espaços e baixo inventário, faz com que os riscos de perdas de vendas por falta de produtos nas prateleiras seja alto e parte da responsabilidade é repassada aos fornecedores.

O próprio Governo adotou medidas de regulamentação que dificultavam a entrada das grandes redes varejistas e atacadistas, limitando área, número de empregados e horários de funcionamento, tudo isto para não prejudicar o tradicional varejo Japonês.

Com o passar dos anos estas leis foram mudando, porém os grandes varejistas foram se adaptando às restrições físicas e se transformando em cadeias de lojas de conveniência, as quais lideram o mercado hoje, tornando-se também parte da infra-estrutura social Japonesa, ou seja, fazem parte da sua cultura.

Como começou a Seven-Eleven no Japão.

A SEJ é uma das “filhas” de um dos maiores grupos varejistas Japonês, o Ito-Yokado, que possui negócios nos setores de alimentação, vestuário, super-mercados, lojas de departamentos e lojas de conveniência.

Numa negociação com a rede de restaurantes americana “Denny´s” que o executivo chefe da Ito-Iokado descobriu o modelo de lojas de conveniências americano e concluiu que ele poderia se adaptar ao modelo Japonês de varejo. Foi num período de desânimo do mercado Japonês em relação ao varejo de pequena escala e a iniciativa do executivo foi inclusive contestada pelos especialistas Japoneses. Mas valeu a o empreendedorismo de Toshifumi Suzuki.

Ele primeiramente adaptou o conceito de loja de conveniência ao modelo japonês de varejo, e, principalmente, às características do consumidor Japonês, que, diferente do Americano, é mais sensível à qualidade do produto e o serviço oferecido do que a questão do preço.

Era necessário garantir produtos de qualidade, frescos e com alta rotatividade a despeitos dos problemas de pequeno espaço das lojas. Ele precisava monitorar constantemente os desejos dos clientes baseado na localização das lojas, horários de maior demanda (pico) condições da temperatura, tudo isto funcionando 24 por 7, ou seja, não fechando nunca.

Estratégias de atuação da SEJ

Um dos princípios fundamentais da SEJ é garantir a satisfação do consumidor, isto é uma obsessão do seu executivo. Para alcançar este objetivo, mantém um controle rígido, item-a-item, de todos os produtos das lojas e um sistema eficiente de distribuição. O objetivo é sempre se antecipar às necessidades dos consumidores e respeitar seus desejos e opiniões.

Para manter este controle, ele se utiliza massivamente de ferramentas automatizadas de apoio à decisão, fortemente baseadas em modelos estatísticos de previsão.

Outra estratégia da SEJ é prover soluções para todas as necessidades diárias de seus clientes a despeito do pouco espaço das lojas, nunca deixando de lado a qualidade dos produtos. Segundo Suzuki, o modelo de lojas de conveniência falha quando se ignora a importância das necessidades diárias dos consumidores (o que eles precisam rapidamente) e a qualidade dos produtos.

A SEJ preocupa-se também em reduzir as perdas de oportunidades de vendas por falta de produtos nas lojas. O consumidor tem que encontrar o que ele procura senão fica desapontado e vai pra concorrência.

É feito um controle detalhado sobre a reposição de produtos para não faltar nunca na prateleira mesmo sendo praticamente impossível manter estoques como acontece no mercado Americano.

Por fim, a SEJ tem um cuidado bastante grande em oferecer produtos diferenciados, com qualidade, numa ambiente agradável e amigável, e, mesmo assim, com preços não muito elevados.

Estratégias de Merchandising

Apesar do pequeno espaço das lojas, 110 m2 aproximadamente, existe uma alta rotatividade de produtos com o lançamento de novos itens. 70% dos itens são substituídos a cada ano. A SEJ procura se antecipar aos desejos dos clientes e mantém nas prateleiras exatamente aquilo que ela sabe que ele vai pegar. Tudo isto é mapeado por sofisticadas ferramentas de análise (sistemas de apoio à decisão). Eles adaptaram um sistema usado nos EUA para o controle da produtividade dos operados de caixa.

O sistema procura sempre identificar os produtos de venda elevada os quais devem ser mantidos nas prateleiras e as diferenças deles devem ser realçadas para chamar a atenção dos clientes.

Através de análises de hipóteses baseadas no comportamento dos consumidores o sistema também sugere o lançamento de novos produtos

A SEJ desenvolve tanto internamente bem como através das parcerias com fornecedores a melhoria contínua de seus produtos através de testes e análises e o objetivo é sempre o mesmo, a satisfação dos clientes e a antecipação dos seus desejos.

Como benefício adicional a estas estratégias existe a redução dos custos com ações de comunicação e marketing, pois, os próprios consumidores ficam fiéis à marca baseado na experimentação e não na comunicação recebida (curiosamente o mesmo modelo que faz sucesso hoje na WEB 2.0).

Estratégias de expansão

A SEJ acredita que a expansão agressiva do número de lojas é a melhor estratégia para dominar o mercado de lojas de conveniência no Japão. Outras vantagens do aumento do número de lojas são:

1 – Melhora a percepção da marca;

2 – Aumenta o número de visitas dos clientes às lojas;

3 – Otimiza a produtividade em relação aos serviços de suporte aos franqueados;

3 – Melhora a efetividade da comunicação ao cliente;

Apesar da estratégia agressiva de expansão, esta não é feita de maneira desenfreada, pois são analisadas aproximadamente 135 fatores ou variáveis que praticamente garantem o sucesso da abertura de uma nova loja. A decisão é baseada em dados muito bem analisados.

A estratégia de Franshising

Os franqueados passam por duas semanas de treinamento antes de abrir as lojas. Após a abertura, o contado da SEJ com os franqueados é semanal, feito por conselheiros de campo que chegam a visitar as lojas duas vezes na semana, gastando em média duas horas para conversar e trocar experiências.

Estas visitas, além de confirmar que o franqueado está seguindo os princípios, valores e imagem da SEJ ainda trabalha a questão das estratégias de promoções. Isto garante performance equivalente de todas as lojas e lucros de participação elevados.

Política de Terceirização

A estratégia de sucesso da SEJ no Japão passou pela adaptação da cadeia de fornecimento às especificidades do modelo e da cultura Japonesa. Ela se adaptou, não tentou muda-la para adequar-se ao modelo Americano. Tudo é terceirizado, a SEJ não possui fábricas nem serviços de logística.

A SEJ procura fortalecer as parcerias garantindo exclusividade, compartilhando informações através de sistemas de Supply Chain Management. Esta estratégia permite aos parceiros saber antecipadamente as tendências e desejos dos consumidores e com isto responder mais rapidamente ou até de forma antecipada a eles.

Sistemas de Informação Estratégicos.

Apesar do uso agressivo de sistemas de informação, eles são considerados somente ferramentas de apoio que ajudam a gerenciar o negócio. Para Suzuki não se de usar tecnologia a menos que sejamos capazes de interpretar o que os números estão dizendo.

Mesmo que os sistemas indiquem tendências (baseados em análises dos dados históricos) as decisões somente são tomadas após detalhadas análises dessas informações com base em hipóteses do que pode ou não acontecer, probabilidades e, principalmente de informações compartilhadas por suas equipes de vendas.

A SEJ investe pesado em TI possuindo inclusive sistemas de previsão do tempo que indicam os produtos que devem ser colocados em destaques nos displays em função das condições meteorológicas. Se vai chover amanhã os guarda-chuvas devem aparecer em destaque nas vitrines. Se vai nevar deve-se dar destaque aos alimentos que o povo consome mais nestes dias, etc.

A SEJ possui equipe de TI que se dedica ao desenvolvimento e manutenção de sistemas ligados ao core-business o restante é terceirizado.

Infra-Estrutura de operação.

A infra-estrtura de TI que conecta todos os sistemas e lojas da SEJ é altamente confiável e rápida.

A SEJ investiu $500 milhões no final dos anos 90 para montar toda a infra-estrutura de TI que dá suporte a todas as atividades, conecta todas as lojas, trafegando informações multimídia como vídeos, fotos e áudio.

O sistema atinge todos os níveis de colaboradores tanto na busca quanto no fornecimento de informações de maneira que possam otimizar suas atividades, o relacionamento com os clientes ou mesmo contribuir para a melhoria da SEJ como um todo.

Esta extensa rede de sistemas proporciona uma enorme e confiável base de dados que é constantemente usada para apoio ao processo de tomada de decisão em todos os níveis.

Comércio Eletrônico na SEJ

A SEJ usa comércio eletrônico em quatro grupos de atividades:

  • Serviços financeiros para pagamentos ONLINE e caixas ATM nas lojas;
  • Site de compra na Internet como mais um canal de vendas e relacionamento com clientes;
  • Serviços públicos e regionais com delivery de alimentos diretamente a consumidores regionais e outros serviços de valor agregado;
  • Gestão do uso de copiadoras inteligentes nas lojas permitindo que os clientes possam usar as copiadoras remotamente pela internet.

Sistema de distribuição

A SEJ desenvolveu um eficiente sistema de distribuição de forma a otimizar rotas e tipos de cargas nos caminhões. É uma espécie de “Cross Docking” com controle integrado sobre rotas, conteúdos ou tipo das cargas a exemplo dos alimentos que precisam estar em ambiente refrigerado, picos de consumo nas lojas e situações de congestionamento próximas aos centros de distribuição.

Isto permite entrega de produtos fresquinhos nos horários em que a demanda por eles é alta em cada uma das lojas.

Com este controle, eles conseguiram diminuir de 70 para 10 veículos, em média, que estão visitando as lojas a cada dia. Em caso de emergências eles utilizam de motos e até helicópteros pois o objetivo é não deixar faltar produtos nas prateleiras.


Competidores:

A| competição é grande entre quatro grandes “players” mas a estratégica da SEJ, apresentada nos tópicos anteriores, como conhecer profundamente os clientes e desenvolver soluções inovadoras para eles, logística otimizada, etc., tornam a tarefa de tentar ao menos seguir a SEJ muito árdua para os competidores. As barreiras criadas pela SEJ são difíceis de serem transpostas.

Visão de Futuro:

Para fazer frente às mudanças de mercado e a pressão dos competidores, a SEJ segue três princípios que garantirão sua liderança no futuro.

  1. Resposta rápida aos desejos dos consumidores e às mudanças do mercado: A SEJ mantém controle sistemático e rigorosos sobres estas variáveis. Os sistemas de informações, altamente eficazes, ajudam a antecipar estes desejos e mudanças. A SEJ estimula bastante a participação de colaboradores e consumidores no processo de melhoria contínua.
  2. Desenvolvimento contínuo de novos produtos: Para isto, além de monitorar os desejos dos consumidores, ela desenvolve e mantém uma rede de fornecedores que pode rapidamente responder a estas mudanças;
  3. Toda a cadeia de fornecimento te acesso direto às informações sobre demanda capturadas pelos sistemas da SEJ nos pontos de vendas. Esta colaboração permite que toda a cadeia esteja sempre pronta a responder às mudanças de humor e desejos dos clientes.

Resumo elaborado por Elton Dietrich como parte da avaliação do curso CE278/2007 do Instituto Tecnológico de Aeronáutica.

Os problemas com Sistemas Empresariais

Resumo do texto publicado por Cynthia Retting em Agôsto de /2007 – MITSloan Management Review

Desde o início da revolução industrial a tecnologia foi abraçada entusiasticamente e sempre foi sinônimo de melhores processos, redução de custos e diminuição da força de trabalho.

Ao passo que a inovação tecnológica se intensifica, o mundo dos negócios tem esperado sempre que novas tecnologias tragam aumentos das oportunidades de mercado e maiores lucros.

Software sempre prometeu evolução, revoluções e transformações sobre como as companhias fazem negócios e a visão triunfante disso são os softwares integrados de gestão que prometem controle total sobre os mais complexos processos empresariais sem perder a flexibilidade de forma a permitir que as empresas se adaptem rapidamente às mudanças no ambiente de negócios.

Estes grandes sistemas sempre prometeram deixar a empresa igual a uma orquestra sinfônica, funcionando harmoniosamente de forma sincronizada e coordenada e os processos fluindo da mesma maneira.

Mas, para a grande maioria das empresas isto não passa de promessas, poucas delas, a exemplo do Wal Mart, conseguiram algo próximo do ideal.

O que se observa normalmente é um conjunto complexo de processos, com dezenas de bancos de dados, centenas de artefatos de software que tentam trabalhar de forma sincronizada, que são pouco documentados, fazendo com que a maior parte do esforço da área de TI, bem como uma grande parcela dos investimentos em TI, sejam alocados para simplesmente deixarem estes funcionando.

Os investimentos na manutenção desses sistemas, em relação aos investimentos totais de TI, pulou de 2,6 até 3,5% na década de 70 para os absurdos 70 à 80% nos anos atuais e tudo isto só para deixá-los funcionando.

O tempo de implantação de novas estratégias de TI chega a ser de dois anos, muito longo, tendo em vista a velocidade das mudanças no atual mundo dos negócios.

A proliferação da Complexidade

O mundo dos negócios hoje é muito mais complexo do que era no passado. Ele é globalizado e a velocidade das mudanças é muito alta. Cada vez mais o processo de tomada de decisões depende de informações e análises complexas além da velocidade de acesso aos dados. Este cenário parece casar perfeitamente com o que a TI oferece, mas isto não é muito fácil de ser implementado mesmo com o avanço das tecnologias e a constante redução de custos da TI.

Criar um programa ou sistema significa formalizar processos e não flexibilizar processos pois as linguagens ainda não pensam e não são muito adaptativas. As promessas para diminuir estas barreiras, como lógica Fuzzy, simulações dinâmicas, algoritmos genéticos e redes neurais ainda não fazem parte da grande maioria dos sistemas empresariais.

A verdade é que os problemas de negócios possuem um aumento contínuo de complexidade, mais veloz do que os softwares podem acompanhar. É estimado que um aumento de 25% na complexidade das tarefas rotineiras de negócios exigem um aumento de 100% na complexidade do software.

Usuários esperam que os softwares sejam flexíveis e maleáveis para adaptarem-se às necessidades do mercado, mas, apesar de realmente serem maleáveis, quantos mais complexos forem as necessidades de negócio os custos e riscos aumentam também.

Os grandes sistemas integrados de gestão prometiam soluções para todos estes problemas e no final da década de 90 foram amplamente implantados pelas grandes empresas. Na época fez grande sucesso o ERP alemão SAP que prometia eliminar os múltiplos e complexos sistemas de gestão das empresas substituindo-os por uma aplicação única que integrasse os principais processos de negócios das empresas, conectando unidades de negócios geograficamente dispersas. As companhias acreditavam que poderiam customizar seus processos em um sistema único, mas na verdade mostrou-se um conjunto complexo de programas, com milhões de linhas de código, com milhares de opções de instalação e um incontável número de peças de software que em vez de eliminar todos os sistemas legados (sua principal promessa) ainda introduziu novos níveis de complexidade.

Atualmente eles não são mais uma aplicação única que promete solução para todos os processo de negócios, deixaram de ser monolíticos e estão se transformando em um conjunto de diferentes componentes, específicos para as áreas de negócio, principalmente relacionados ao comércio eletrônico e relacionamento com clientes.

O que está ocorrendo na verdade é que estes pequenos ERP´s tornam-se da mesma forma um conjunto complexo de aplicações difíceis de serem gerenciados e o antigo ERP passou a ser também um sistema legado, justamente aquilo que ele prometia eliminar.

Os custos da implementação:

Outro grande problema relacionado aos ERP´s são os custos elevados de implementação. É um software caro, normalmente paga-se licenças por usuário, o que pode crescer bastante em grandes companhias. Embora o custo das licenças seja elevado, o mais caro é a grande quantidade de consultores externos que muitas vezes passam alguns anos dentro da empresa fazendo a instalação e deixando o sistema funcional.

Para algumas companhias estas cifras podem alcançar algumas centenas de milhões de dólares e o pior de tudo é que não existe nenhuma garantia de que irão funcionar adequadamente. É fato que 75% das implementações foram consideradas falhas.

Não existem evidências de que eles tragam ganhos em relação à produtividade ou se os benefícios que eles trazem compensam os custos e riscos da implementação.

Algumas conclusões, até estranhas, dos pesquisadores afirmam que aqueles que conseguem chegar ao final, com sucesso, conseguem sim obter vantagens em relação à concorrência, mas não devido ao software, porém, por terem sido eles um dos poucos a conseguir. Outra conclusão desta pesquisa é que aqueles que conseguirem chegar até o fim, independente da empresa conseguir melhorar ou não a produtividade, já podem se considerar vencedores.

Nicholas Carr em seu famoso artigo “TI já não importa” também critica estes sistemas alegando que eles praticamente anulam os diferenciais competitivos entre as empresas que os instalam. A justificativa é que eles obrigam as empresas a adaptarem seus processos ao sistema e onde existem processos iguais ou genéricos as estratégias passam a ser iguais ou genéricas. Isto é verdade uma vez que até as customizações feitas ao software em uma determinada instalação, para adequação aos processos da empresa, passam a fazer parte das próximas versões do mesmo, tanto que hoje os vendedores dessas ferramentas, ao constatarem um cliente, não ofertam o produto em si, procuram sim vender “boas práticas de negócio”, que, segundo eles, a empresa está adquirindo com o sistema.

Depois de instalados é muito difícil fazer atualizações e customizações pois o custo é proibitivo fazendo com que algumas empresas cheguem a manter rodando estes softwares por mais de 10 anos. Este problema é grave tendo em vista que estes sistemas possuem em média um número elevado de bugs de 100 à 150 erros por 1000 linhas de código com o agravante de possuírem milhões de linhas de código.

A imprevisibilidade dos dados:

A grande quantidade de dados gerados por sistemas de computação acaba se tornando um problema de igual tamanho. Estes dados normalmente estão espalhados em várias bases, com duplicidade, formatos diferentes e a incidência de erros e inconsistências é grande.

Quando a instalação começa do zero é tudo mais simples, mas quando existem bases de dados legadas em diferentes fontes e formatos e estes dados precisam ser integrados para a implantação, os problemas são imprevisíveis.

Os dados de um cliente podem estar espalhados por várias bases e na hora de integrar as coisas podem não funcionar. Este problema é um dos maiores geradores de erros dos sistemas empresariais quando entram em operação. O processo de integração das bases de dados é tão complicado que muitas vezes é deixado para o final da instalação o que pode ser ainda mais complicado, é como empurrar a sujeira para debaixo do tapete, uma hora ela vai ter que ser tirada, “se a obra já estiver concluída talvez seja necessário quebrar paredes e desfazer o que já está pronto para remover e consertar o que foi deixado pra trás”.

Neste sentido, em vez de agilidade, esses sistemas podem engessar a empresa, causar dificuldades de adaptação às mudanças que o mercado impõe, anulando com isto todos os benéficos que prometiam trazer.

Juntando todos estes problemas e adicionando a resistência que os executivos não TI possuem em relação ao seu envolvimento com as questões técnicas da implantação do sistema acabam causando barreiras e dificuldades em provar os reais benefícios da implantação.

Como será o futuro?

A principal promessa para a solução desses problemas é arquitetura orientada a serviços ou SOA, que objetiva fornecer uma solução de comunicação e integração das diferentes fontes de dados legados e também a integração desses sistemas com outros sistemas corporativos e os sistemas dos parceiros ou sistemas inter empresariais.

Mas este é um processo demorado e as companhias que estão adotando ainda estão nos estágios iniciais do processo, que além de longo, é complexo e difícil de ser alcançado.

Em alguns casos isto pode levar vários anos, algo impensável no dinâmico mundo dos negócios. Porém, quando implantado, a promessa é que todos os problemas de integração entre diferentes sistemas de diferentes parceiros de negócio estará resolvido.

É necessário também um maior comprometimento dos executivos das demais áreas de negócios da empresa e estes normalmente se envolvem somente na fase inicial ou na definição da tecnologia. A partir daí a responsabilidade passa a se do pessoal de TI, deixando muitas vezes de ser um processo de negócios para se transformar num processo de TI.

O pessoal de TI da mesma forma precisa se envolver mais com a área de negócios.

O processo de componentização dos grandes sistemas empresariais bem como versões compatíveis com o ambiente WEB irão facilitar o processo de atualização, deixando os mesmos mais flexíveis e adaptáveis ao contínuo processo de mudança dos negócios.

Resumo e comentários elaborados por Elton Dietrich como parte do processo de avaliação do curso CE278 do Instituto de Estudos Avançados.

quarta-feira, 3 de outubro de 2007

Comentários sobre o texto Satisfaction Guaranteed

Comentários sobre o texto Satisfaction Guaranteed

Autor Meredith Levinson

Introdução

O texto aborda o uso de Contratos de Nível de Serviço – SLA entre as áreas de negócio de uma empresa e a sua área de TI quando da solicitação de serviços como instrumento de garantia de serviços de acordo com o prescrito ou solicitado, nos prazos especificados e dentro dos custos inicialmente previstos. O objetivo é melhorar a relação entre a área de TI e as demais áreas garantindo satisfação sobre os resultados. O texto é um estudo de caso sobre a implantação de SLA na Empresa Hines.

Resumo do Texto

Contratos de Nível de Serviço são temas que costumam polarizar as discussões entre os executivos de TI. Existem os que amam mas também existem os que odeiam estes contratos.

Os que odeiam argumentam que estes contratos são uma maneira de forçar a área de TI a ser eternamente subserviente às demais áreas de negócio, reforçando o estereotipo de que o pessoal de TI não entende de negócios.

Já os que amam argumentam que um SLA é um conjunto de documentos que garante uma TI focada nos negócios, diferente de uma área estritamente técnica, além de possuir mecanismos que garantam que os investimentos de TI estejam alinhados estrategicamente aos negócios, sejam executados dentro dos prazos e orçamentos pré aprovados e ainda permita medir o retorno dos investimentos de TI ao negócio.

Os defensores dos SLA´s apresentam outros argumentos a seu favor, como a proatividade ou capacidade de se antecipar a problemas ou expectativas dos usuários em vez de reagir, muitas vezes tardiamente, de forma defensiva a estas demandas, com isso aumentando significativamente a satisfação dos usuários com a área de TI.

Outra grande vantagem do SLA é a capacidade de provar quanto a empresa irá perder se não investir em determinada tecnologia ou quanto irá perder caso sejam feitos cortes nos orçamentos de TI.

Os especialistas afirmam ainda que não é muito fácil definir um SLA consistente. Podemos tanto definir um nível de serviços altíssimo com garantias muito difíceis de serem alcançadas, ou ainda, não estimar corretamente os custos que um contrato de vários níveis pode alcançar. Ambos os casos podem por uma iniciativa de implantação de SLA em descrédito total, por isto é necessário haver um balanceamento entre o razoável e o útil.

Segundo o CIO da empresa Hines, é importante definir áreas chaves e estratégicas para a empresa iniciar a implantação de SLA´s, garantir que eles tenham sucesso e depois expandir para as demais áreas.

É importante classificar os processos e definir um nível de importância em relação a sua criticidade para os negócios. Quanto mais crítico maior deve ser o nível de serviço esperado.

Também é esperada a participação de todos os níveis de usuários e também gestores. Se deixar nas mãos dos técnicos de TI eles terão a tendência a criar padrões elevados para facilitar a percepção da satisfação dos usuários e isto no futuro pode se transformar em um tiro no próprio pé.

Devemos lembrar também que os investimentos em TI são altos e esta é uma atividade complexa. Um nível de exigência mais alto em um serviço, por mínimo que seja, pode custar cifras altíssimas. Será que vale a pena?

É importante também implementar um piloto de avaliação e testes que seja exaustivamente testado e validado antes de entrar em operação em toda a empresa.

Somente através do uso que os problemas ou novas necessidades irão aparecer. Um protótipo é importante, mas somente o ambiente real de uso é que irá garantir que está tudo conforme o especificado. Porém, se entrar no negócio todo de uma só vez os problemas se multiplicarão de tal maneira que poderá inviabilizar a implantação.

O caso apresentado no texto mostrou que ocorreram melhorias significativas nos serviços cobertos por SLA´s. O departamento de TI passou a produzir serviços melhores do que os prestados pelas parcerias externas e com um custo bem menor. Ocorreu um aumento de 12,5% na satisfação dos clientes e uma economia estimada em $100.000 num período de seis meses. Melhorou consideravelmente a percepção do retorno e do valor da TI para os negócios, por fim, os serviços de TI passaram a serem medidos em relação a custos e ao retorno.

Comentários:

TI não pode mais ser vista como uma área aparte das demais áreas de negócios, sem comprovar, de forma tangível, os benéficos, os lucros e o valor para os negócios.

Se os investimentos em TI são volumosos e crescentes é de se esperar que existam garantias de que estes valores na forma de lucro, aumento da produtividade ou até benefícios não tão tangíveis.

Neste sentido, um SLA passa a ser uma importante ferramenta que irá mostrar para os executivos o quanto seus investimentos em TI geraram em retorno para o negócio, eles terão garantias claras sobre o sucesso das iniciativas e o pessoal de TI passa a trabalhar em cima de metas que precisam ser alcançadas. Trabalho sem metas e objetivos torna-se frustrante. Não saber o quanto seus serviços geram de valor para a empresa é mais frustrante ainda.

Os SLA´s já são mecanismos comuns na relação com parceiros externos de TI. São uma garantia de que a empresa é capaz de cumprir e cumprirá com sua parte no contrato.

Para serviços internos, o SLA não é muito comum, mas com certeza é bem vindo.

Usuários e executivos agradecem pois com certeza terão sua satisfação garantida.

Elton Dietrich

sexta-feira, 14 de setembro de 2007

Resumo e comentário sobre o artigo “Softwares´s Chronic Crisis “

O autor inicia a crônica afirmando que, apesar dos 50 anos de progresso no desenvolvimento de Software (isto em 1994) a indústria do software estava a décadas de alcançar a maturidade de outras áreas da engenharia, sendo que era preciso mudar rapidamente aquele cenário para suprir as demandas da nova sociedade da era da informação.
Ele cita o exemplo do Aeroporto de Denver, uma obra prima da engenharia (civil) moderna, que simplesmente não pode entrar em funcionamento na data prevista e teve atrasos de vários meses por culpa dos problemas em um software de 193 milhões de dólares, o qual deveria fazer o controle automático das bagagens, chegando no auge da crise a gerar um prejuízo de 1,1 milhão de dólares/dia em juros e custos operacionais.
Naquela época, estudos mostravam que para cada seis grandes sistemas que eram colocados em operação dois outros eram cancelados. Em média, metade dos projetos de desenvolvimento de software estouravam seu cronograma, e, para os considerados grandes projetos, esta média era ainda pior.
Três quartos de todos os grandes sistemas apresentavam falhas de operação, seja por não funcionarem como o inicialmente previsto ou porque sequer eram usados.
O autor mostrou que já na década de 60 (1968) um comitê de 50 especialistas nas diversas áreas de TI, definiu que o desenvolvimento de software deveria seguir uma sistemática disciplinada e quantificável para o seu desenvolvimento, operação e manutenção. Esta sistemática foi cunhada de Engenharia de Software. Porém, em 1994, 25 anos depois, nada havia mudado e o desenvolvimento de software ainda era artesanal.
Em 1994 os cientistas da computação sabiam que haveriam mudanças profundas no uso de computadores pela sociedade, e, para que o software pudesse responder a estas mudanças, seriam necessárias também mudanças profundas. Porém, o que se via era um processo meio sem rumo, como dunas que se movem ao sabor dos ventos e sem direção definida.
As fundações da programação tradicional estavam ruindo enquanto o hardware se desenvolvia cada vez mais rapidamente.
Não se podia mais aceitar software sem qualidade. A afirmação amplamente aceita na época de que todo software terá algum tipo de falha precisava mudar. Imagina a gente aceitar uma afirmação de todo prédio um dia vai ruir, é inimaginável.
A quantidade de código em produtos de consumo de massa como aparelhos eletrônicos, carros, eletrodomésticos, entre outros estva se duplicando a cada dois anos e não se poderiam aceitar falhas.
Por outro lado não era muito fácil desenvolver sistemas sem erros pois esta era e ainda é uma atividade complexa. O autor cita o exemplo de um software de controle do satélite Clementine desenvolvido pelo Departamento de Defesa Americano – DOD. O DOD aplica testes rigorosos e caros para garantir a qualidade e a confiabilidade dos software embarcados, mas, mesmo assim um “bug” no programa fez com que o satélite não conseguisse se fixar na órbita lunar planejada.
O motivo sempre citado era a dificuldade de simulação de todos os cenários operacionais possíveis e isto valia para qualquer aplicação, seja científica ou comercial.
Por outro lado, as novas demandas, principalmente no mundo dos negócios, que exigiam sistemas cada vez mais complexos e versáteis, passaram a ser um desafio ainda maior para os desenvolvedores.
Infelizmente existem relatados mais casos de insucesso que o contrário. Em junho de 1994 a IBM fez uma pesquisa em 24 grandes companhias, líderes nos seus setores, que tinham desenvolvido grandes sistemas distribuídos. O resultado, desanimador, mostrou que 55% dos projetos custaram mais do que o esperado, 68% estouraram o cronograma e 88% tiveram que ser substancialmente redesenhados. Os resultados poderiam ser ainda mais desanimadores se eles estivessem incluído questões sobre a confiabilidade dos sistemas que forma implantados.
A conclusão na época era clara: “É necessário mudar a forma como os programadores trabalham”. As demandas estão cada vez mais complexas, sistemas com mais de 1 milhão de linhas de código, distribuídos sobre centenas de modernas e sofisticadas plataformas de hardware com eventos em tempo real. Num sistema deste porte, para o controle do tráfego aéreo por exemplo, um pequeno erro poderia se tornar uma ameaça à segurança pública.
Por outro lado, os custos para o desenvolvimento de software estavam aumentando de forma estratosférica, beirando o nível proibitivo. Todos estes problemas levaram a conclusão de que era necessária uma mudança de rumo radical ma maneira como o software era desenvolvido, de forma a ficar comptível com as demais áreas da engenharia, ou seja, buscar uma metodologia que permitisse entender como medir consistentemente e qualitativamente o processo de desenvolvimento de software bem como a densidade de erros e a produtividade dos programadores.
Uma das primeiras tentativas na busca da melhoria dos processos de desenvolvimento de software foi a introdução do modelo CMM – “Capability Maturity Model”, o qual buscava excelência e qualidade no processo de desenvolvimento de software.
O modelo é composto de 5 níveis de maturidade, sendo o primeiro deles caracterizado pela ausência de uma metodologia padrão de desenvolvimento e o maior (nível 5) considerado como processo de excelência e melhoria contínua. Pesquisas na época indicaram que aproximadamente 75% das empresas estavam no nível 1, uma clara demosntração do “porquê” da baixa qualidade do software.
É um modelo que no quarto e no quinto nível se preocupa com a avaliação quantitativa do software, ou seja, o uso de métricas para avaliar onde o processo pode ser melhorado.
Por outro lado, mesmo projetos muito bem conduzidos podem levar a erros. A arte de programar também implica em retirar erros dos programas, e, quanto mais cedo estes “bugs” forem tratados, menores as chances de causarem ameaças. Os “bugs” devastadores são aqueles detectados na fase final ou fase de entrega.
Algumas empresas, como a Microsoft, lançavamm versões beta dos seus softwares, distribuindo para milhares de voluntários que os testavamm. Mas isto era e ainda é caro e complicado para a grande maioria dos aplicativos de software.
Pesquisadores formulavam estratégias para descobrir e atacar “bugs” logo no início do projeto evitando assim que se propagassem. Uma maneira prática de fazer isto era através da prototipação, a qual permite aos usuários ou clientes do sistema validarem os processos antes ainda da codificação. Por outro lado, protótipos são somente modelos e a maioria dos “bugs” só é detectada após o processo de codificação.
Outra saída estva surgindo do domínio da matemática, através do conjunto de ferramentas providos pela teoria da matemática e do cálculo de predicados. Eles traduziam especificações e programas para métodos formais que ajudavam a provar a corretude dos algoritmos usados.
Embora estes métodos formais consigam provar que um algoritmo está correto os testes funcionais ainda são necessários pois podem ocorrer erros na modelagem dos métodos formais além do que, estes métodos somente podem garantir que um software está de acordo com a especificação mas ele não pode prever as surpresas que o ambiente operacional pode trazer.
Uma abordagem de sucesso conhecida como “sala limpa” estava sendo analisada. O objetivo era usar técnicas rigorosas de engenharia de software de maneira a garantir que o produto sairia perfeito já na primeira tentativa. O sistema é decomposto em partes menores e estes módulos são testados forma exaustiva antes de integrá-los aos demais. Nenhuma sujeira fica debaixo do tapete.
Isto implica em mudar a cultura em relação a testes. Em vez de ficar testando os módulos da maneira como o programador acha que eles serão usados, deverá ser definido e criado um conjunto de casos de testes muito bem planejados. Estes casos de testes não seriam restritos a funcionalidade do módulo em si, mas se preocupam também com a integração e a dependência entre eles. É um processo que testa, “retesta” e testa novamente. Depois de cada fase de testes existe uma fase de análise e validação dos resultados.
Mas não existe uma solução mágica, ou “bala de prata” na metáfora do autor. Desde a década de 60 tinham surgido dúzias de novas tecnologias desenvolvidas com a intenção de aumentar a produtividade dos programadores. Entre elas se destacavam a programação estruturada, ferramentas CASE, orientação a objetos entre outros.
Mesmo assim alguns cientistas e pesquisadores ainda não enxergavam melhorias na produtividade. Outros, como o professor Richard A De Millo da Universidade de Purdue, tinham uma visão diferente, afirmando que as mudanças estavam acontecendo, mas não existia uma definição clara do que seria este aumento de produtividade e quais métricas deveriam ser usadas.
Em relação a gerar código, a produção em 1994 era no mínimo o dobro da apresentada na década de 70. Por outro lado, menos de 10% das companhias americanas mediam a produtividade dos seus programadores.
Mesmo as que mediam não usavam um padrão útil de medida. A mais usada era o número de linhas de código por programador/mês. O problema é que existiam várias linguagens diferentes e não era possível ou viável comparar a produtividade de dois programadores em termos de linhas de código se um codificava em “C” e o outro em ADA, por exemplo.
O fato era que, naquela época, apesar de se falar muito em engenharia de software, esta estava muito aquém das demais tradicionais e maduras áreas da engenharia. Não existia um “handbook” de engenharia de software padronizado e único, os erros de projetos eram repetidos um após outro.
Os pesquisadores e cientistas pregavam a necessidade do Governo tomar a frente do processo de pesquisa e criação de metodologias padrão pois isto envolvia altos investimentos. Havia também a necessidade de criar grandes laboratórios de experimentação para que os pesquisadores e estudantes das Universidades pudessem testar em bancada estas novas propostas.
A idéia, já naquela época, era criar as linhas de produção de software, desenvolvendo componentes intercambiáveis, independentes de plataforma de hardware ou sistema operacional. Os programadores vinham por décadas tentando criar bibliotecas de componentes desenvolvidos. O problema era que estes ficavam rapidamente obsoletos em relação à rápida evolução do hardware e dos sistemas operacionais. Os investimentos na época eram direcionados no sentido de implementar o processo de componentização de software e estes componentes deveriam ser facilmente intercambiáveis para se adequar às mudanças de plataformas e ambientes de negócio.
Até o início dos anos 90 as empresas americanas, como a Microsoft, dominavam a produção de código. Sozinha, a Microsoft produzia durante um ano mais código de computador do que um conjunto de 100 nações juntas.
As mudanças começaram a acontecer quando vários países, principalmente no lado oriental do globo, como a Índia por exemplo, com o apoio de seus governos entraram firmes na produção de software, tirando a hegemonia dos Estados Unidos.
Muitas grandes companhias abriram subsidiárias na Índia com o objetivo de produzir software a um custo menor. O salário dos programadores indianos chegava a ser 8 vezes menor do que nos EUA e isto não implicava em menor qualidade pois a mão-de-obra indiana era altamente capacitada.
Outra grande vantagem eram os fuso horários pois os trabalhadores indianos poderiam corrigir software enquanto os americanos dormiam. No dia seguinte tudo estava funcionando.
Por fim, o autor esperava que uma combinação entre boas práticas em processos de negócios e ferramentas avançadas de tecnologia e componentização poderiam reverter a situação corrente na época em relação aos softwares ruins, ou seja, resolver a famosa crise do software, pois, se nada fosse feito, o desenvolvimento de software iria dificultar o crescimento da indústria e demais áreas de negócios.

Comentários:

Passados 13 anos desde a publicação do artigo, pode-se dizer que ocorreram melhorias nos processos e nas tecnologias de desenvolvimento de software, inclusive com a consolidação de algumas tecnologias que eram avaliadas na época. Porém, as queixas em relação à baixa produtividade e também sobre projetos que falham, continuam altas.
O Standish Group publicou em 2006 os resultados de uma pesquisa que mostrou que somente 35% dos projetos de desenvolvimento de software que foram iniciados tiveram sucesso, ou seja dois terços de falhas. Números muito parecidos com 1994. Este número muito alto levou Grady Brook, um dos pais da UML, a declarar que “uma doença que dure tanto tempo quanto esta, francamente, deveria ser considerada uma normalidade”.
A Engenharia de Software evoluiu, novas técnicas e processos, comprovados em laboratórios, melhoraram consideravelmente o processo de desenvolvimento de software. Pode-se afirmar que software hoje é desenvolvido ou projetado por engenharia, não mais manufaturado no sentido clássico.
Orientação a Objeto, Inteligência Artificial, Redes Neurais, Computação Paralela, Ferramentas CASE, UML, entre outras, que em 1994 ainda eram promessas, hoje são largamente usadas na prática.
Outro conceito que ainda era pouquíssimo desenvolvido na época e hoje é largamente usado são as Fábricas de Software. A produção de software segue o conceito de linha de produção, com reutilização, componentização entre outros, o que faz diminuir consideravelmente o “lead time” de desenvolvimento de software.
Por outro lado a complexidade dos problemas também cresceu. A Internet e o Comércio Eletrônico, nem citados no artigo, explodiram. Hoje os negócios exigem sistemas distribuídos em larga escala, conectados de forma colaborativa, rodando em plataformas distintas, desenvolvidos com tecnologias distintas, trocando informações em tempo real para mover os negócios e porque não dizer o mundo, tudo isto sobre a Internet, uma rede que conecta milhões de usuários ao redor do Globo e, apesar de versátil, é totalmente insegura. Não é errado dizer que quase nenhum negócio no mundo funciona sem o apoio dos sistemas de informação.
O que se observa hoje é que a baixa produtividade das pessoas que usam sistemas de informação ou mesmo sistemas de informação que não funcionam adequadamente e não dão os resultados esperados, são causados, na sua grande maioria, pela falta de alinhamento dos sistemas às estratégias de negócios das empresas bem como o mau uso das ferramentas disponíveis para o desenvolvimento de sistemas. A tecnologia não deve ser mais considerada a vilã.
Da mesma forma que os especialistas afirmam que o aumento da produtividade relacionada a implantação de sistemas de informação é mais o fruto na mudança e otimização dos processos do que a tecnologia por si só, pois esta produz um aumento marginal, podemos também afirmar que a baixa produtividade não é culpa da tecnologia ou dos sistemas, mas das mudanças inadequadas nos processos de negócio. Os manuais de engenharia estão aí, o problema é que não são corretamente usados pelos desenvolvedores.
Outro problema está relacionado aos famosos e difundidos “softwares de prateleira” para gestão de negócios, os quais são usados pela maioria das empresas.
Eles são bem desenvolvidos, seguem os conceitos da moderna engenharia de software, mas eles acabam engessando os negócios ou mesmo modificando a maneira como as pessoas trabalham. As empresas são obrigadas a se adequarem aos modelos de negócios implementados nestes sistemas, desfigurando seu modelo de atuação e eliminando diferenciais competitivos.
Em muitos casos ocorre a falta de comprometimento dos executivos de negócios com a definição e implantação destes sistemas, fato este que contribui para a implantação de sistemas pouco adequados ao negócio o que acaba causando um impacto negativo na produtividade.
Mas, mesmo em relação aos problemas de falta de gestão estratégica da TI, as mudanças estão ocorrendo. Os modelos de govenança de TI que prometem colocar ordem em todo o processo de definição, modelagem, implantação e operação de sistemas de informação, estão sendo adotados em larga escala pelas empresas, seja por necessidade, seja por força da lei (exemplo da lei SOX).
As empresas estão aprendendo que, seja através de equipes internas de TI, seja através de processos de terceirização, é importante investir em profissionais capacitados a usar estas novas tecnologias na sua plenitude. A informação é hoje um dos principais ativos das empresas e os sistemas que manipulam estas informações não podem ficar sob a responsabilidade de amadores.
A união da governança de TI e das modernas ferramentas de modelagem e desenvolvimento de sistemas com pessoas especializadas e comprometidas com os negócios da empresa, prometem sepultar de vez a famosa crise do software.

Elton Dietrich

terça-feira, 4 de setembro de 2007

Operation - Leadership

RESENHA CRÍTICA COMPLETA

DADOS GERAIS
Disciplina: CE-278 Modelagem e Gestão de Processos
Professor: Edgar Toshiro Yano
Aluno: Elton Dietrich
ANÁLISE DO TEXTO
Título do Artigo: Operation - Leadership
Autor (es): Peter Schoomaker
PALAVRAS-CHAVES DO TEXTO
Liderança,Iniciativa,Forças de Operações Especiais,Operações não convencionais

DESCRIÇÃO DO ASSUNTO
O autor argumenta que nos dias de hoje, até mesmo em instituições altamente hierarquizadas como as Forças Armadas, nas quais normalmente é seguido o modelo rígido de cadeia de comando, onde manda quem pode e obedece quem tem juízo, é necessária uma mudança de visão em relação à liderança.

Os cenários onde atuam as forças de combate mudou. As forças especiais de combate precisam estar preparadas para atuar em conflitos cada vez menos convencionais e o processo de tomada de decisão em relação às ações que precisam ser tomadas está mais horizontalizado, dependendo mais do momento vivido do que de uma estratégia previamente elaborada e autorizada pelos comandantes, ou seja, os combatentes, em todos os níveis, precisam desenvolver qualidades como iniciativa e liderança.

APRECIAÇÃO CRÍTICA DA OBRA

No meio militar o bom senso diz que para se obter sucesso em qualquer campo de ação deve-se seguir uma estrita cadeia de comando, ou seja, a hierarquia rígida é tida como fundamental, algo que não pode ser quebrado sob nenhuma hipótese.
O General Peter Schoomaker, comandante das forças especiais americanas argumenta que no atual cenário de operações este modelo pode ser perigoso. Da mesma maneira que no atual cenário dos negócios onde a palavra chave é “mudança”, os cenários onde atuam as Forças de Operações Especiais Americanas – SOF também muda constantemente, sendo que, terá mais capacidade de vencer, aquele que apresentar soluções mais criativas para as circunstâncias que se apresentarem. Ele afirma que “todos precisam aprender a ser lideres”.
Para o General Schoomaker, o fim da guerra fria marcou o início de um novo cenário de operações, passando das grandes guerras convencionais onde os detalhes de cada operação eram planejados por generais reunidos em centros de comando e controle e as forças de operações eram meros executores, para um novo modelo, onde as missões são mais rápidas e complexas, em cenários não muito bem conhecidos e o ambiente é de incertezas. Outra característica é que são executadas por forças de operações menores. Este novo campo de atuação exige que os membros dessas forças saibam lidar com as opções que se apresentam, quase nunca previsíveis, sabendo que na maioria das vezes não podem contar com a cadeia de comando para liderar suas ações.
Para comprovar suas afirmações o general Schoomaker apresenta alguns exemplos recentes como o conflito na fronteira do Iraque, nos campos de refugiados Kurdos (antes da guerra do Iraque que derrubou Saddam Hussein), os conflitos na Bósnia, a guerra do tráfico na Colômbia, conflitos étnicos na Namíbia entre outros.
Em todos esses casos, as forças de operações especiais encontraram cenários não convencionais a uma guerra tradicional, com refugiados famintos, a necessidade de convocar membros das comunidades locais para executar algumas operações de apoio, conversar com as pessoas para tomar conhecimento da situação, combater contra milícias, guerrilheiros, entre outros.

Para todos estes casos a iniciativa e a liderança são palavras-chave, estas equipes devem estar capacitadas para dar resultado a qualquer tempo em qualquer lugar. Para alcançar estes resultados, esta nova versão de organização militar deve ser muito bem treinada e composta por militares especialistas, lideres que podem operar em todos os níveis da organização.
Para alcançar estes objetivos, o general Schoomaker define um conjunto de sete princípios e práticas que devem ser seguidos pelos membros das forças especiais, principalmente por seus lideres.

1. Identifique claramente todas as variáveis envolvidas e foque sua missão em cima delas:

Se o foco de uma missão mudar é preciso desenvolver novas capacidades para tratar com ela de forma adequada. Os membros das forças especiais não são somente guerreiros que vão ao campo de batalha seguir ordens e procedimentos previamente definidos. Eles vão encontrar situações não previstas e precisam desenvolver capacidades de comunicação com as populações locais, capacidades de negociações, capacidades para resolver problemas não previstos e habilidades criativas para tratar com cada situação delicada que se apresentam.
Os membros das Forças Especiais se consideram como “Guerreiros Diplomatas” e “profissionais discretos”, ou seja, não buscam mais ser simplesmente heróis e não são mais simplesmente homens de batalha. Eles procuram seguir a abordagem do mestre Sun Tzu, o qual afirmava que “Conquistar o inimigo sem lutar é alcançar o ápice da destreza”. Esta destreza envolve analisar uma série de variáveis que se apresentam, principalmente aquelas que envolvem a capacidade reação ou o poder do inimigo, escolher o melhor caminho, e, mais importante, conseguir implementar rapidamente as ações.

2. Escolha as melhores pessoas e monte a melhor equipe:


Por experiência própria o general Schoomaker afirma que nunca de deve confundir entusiasmo com capacidade, não basta querer fazer, tem que saber fazer.
Você precisa ter pessoas capazes de cumprir uma missão com sucesso caso contrário é melhor nem tentar. Você precisa selecionar as melhores pessoas, as mais capazes, aqueles que tem o sucesso estampado no rosto e depois educar, treinar e avaliar constantemente suas qualidades. As forças especiais possuem 4 princípios fundamentais: Pessoas são mais importantes do que máquinas, a qualidade é melhor do que a quantidade, os membros das forças especiais são pessoas diferenciadas ou únicas naquilo que fazem, e, por último, devem estar sempre prontos para entrar em ação.
Os membros das forças especiais não são mais avaliados somente por suas qualidades militares, precisam desenvolver capacidades de negociação com oficiais de outras forças, população civil local, com guerrilheiros, entre outros. Eles são considerados embaixadores americanos. Para isto são treinados e colocados nas mais variadas situações e só os melhores é que permanecem.

3. Para ser um líder é preciso demonstrar liderença.

O processo de seleção de líderes das forças especiais é rigoroso. Para Schoomaker, liderança é a capacidade que as pessoas tem de lidar com a mudança, eles devem ser treinados para fazer algo que antes eram incapazes de fazer e capacitá-los para executar rapidamente. Como não existe uma receita de bolo para cada situação, estes lideres precisam ter como principais atributos qualidades psicológicas e intelectuais destacadas.
Os candidatos a lideres precisam demonstrar capacidade de liderança para resolver problemas complexos, tanto sozinhos como trabalhando em grupos. São colocados frente a dilemas morais e situações reais de maneira que possa ser analisado como eles agem em todos os casos. A sua criatividade também é testada quando são colocados frente os mais diversos problemas logísticos, materiais, entre outros e com o mínimo recursos disponíveis para solucioná-los.
Para complicar, todas as situações são preparadas para serem executadas sob condições extremas de estresse psicológico e emocional.

4. Ensine as pessoas como fazer e não o que fazer:

“Não de o peixe, ensine as pessoas a pescar”. As forças especiais precisam de membros que consigam operar num mundo misterioso e sofisticado onde as complicações aumentam a todo o instante. Não é possível criar um “checklist” explicando como os membros devem agir sobre cada circunstância. Para resolver os problemas não estruturados que os membros irão encontrar em campo eles precisam estar preparados para pensar em como resolve-los e não somente ensinar o que fazer para resolve-los
Isto não implica que eles podem fazer o que bem entendem, pois os valores éticos americanos e o interesse dos Estados Unidos precisam sempre estar a frente.
Tendo isto em mente os membros são incentivados a tomar iniciativas pois, na maior parte das operações, os problemas precisam ser resolvidos rapidamente e a maior parte das situações é não prevista. Se o líder fosse obrigado a pedir autorização a toda a cadeia de comando a demora ia ser grande.
O líder recebe um resumo do problema que irá encontrar e o seu papel é definir uma solução mais adequada.

5. Valores chave para manter os membros unidos:


A idéia não é ensinar como se usa cada ferramenta disponível para resolver problemas, mas ensinar um conjunto de valores centrais e preparar os lideres para resolver os problemas com as ferramentas disponíveis no momento, ou seja, ensinar um conjunto de princípios centrais que podem ser aplicados em qualquer situação.
Os valores chave que nunca podem ser desconsiderados são:
 Tome iniciativas, não espere respostas de cima pois elas raramente existirão;
 As coisas raramente são justas;
 Tudo muda rapidamente – O primeiro relatório apresentado deve ser sempre suspeito;
 Espere o inesperado – antecipe-se, prepare-se;
 Planeje e prepare-se como se não existissem regras;
Mais alguns bons princípios: Preserve sua liberdade de ação; sempre crie opções (plano B); nunca tome decisões que podem lhe abater futuramente; Procure sempre por possibilidades que ainda não foram vistas; O que mais poderia ocorrer?; procure ter a visão de floresta da situação.
O que não se pode perder de mente é que estes valores devem fazer parte de todos os membros e funcionar como motor de união entre eles.

6. Aprenda em ação:

A melhor maneira de aprender é em ação, porém, não é possível fazê-lo em situações reais onde o erro não é admissível.
Cenários são preparados para simular as situações que os membros das forças especiais vão encontrar nas missões reais.
Estas situações de combate simulam não só o ambiente físico que irão encontrar mas as populações locais, os inimigos etc.
Estes treinamentos são acompanhados por observadores e depois de terminados eles são completamente revisados. Porque uma decisão foi tomada, qual foi o motivo do erro ou do acerto, entre outros.
O erro é permitido e até estimulado pois é no erro que mais se aprende e na simulação ele não causa prejuízos maiores. Na vida real eles não podem acontecer. Só não são permitidos a negligência, a desobediência e o mau comportamento.

7. Ensine todos os membros a ensinar:


A última característica de um bom líder é a capacidade de ensinar, inspirar e desenvolver seu time.
O bom líder faz com que sua equipe consiga atuar bem mesmo sem a sua presença pois foi bem treinada para isto.

Conclusão

O texto apresenta uma visão interessante da necessidade de se desenvolver líderes capacitados para tomar decisões, independente da cadeia hierárquica, mesmo que a organização pertença ao hierarquizado ambiente militar.
Os conceitos apresentados são muitos semelhantes ao que se espera de um líder em qualquer setor da sociedade, seja no mundo dos negócios, no meio político, um líder de bairro, entre outros.
Ficou claro que alguns dos conceitos apresentados se aplicam a situações especiais vividas pelas forças de operações especiais americanas. Um líder normalmente não precisa passar por situações de estresse, como são as operações militares, onde vidas estão em perigo e porque não dizer a soberania de uma nação inteira.
Conclui-se que estes conceitos podem ser aplicados para as equipes de operações especiais que são pequenas e focadas, não às forças armadas como um todo. Um quartel precisa de lideres, mas se todos forem lideres a disciplina hierárquica tende a ficar comprometida, e, numa guerra convencional, se não existirem os pilares da hierarquia e da disciplina o caos vai se formar e a derrota será uma conseqüência natural.

A business-Oriented Foundation for Service Orientation

A business-Oriented Foundation for Service Orientation

Ulrich Homann

Comentário sobre o artigo

O autor apresenta uma proposta de modelagem da arquitetura de negócios com foco na orientação a serviços. Esta arquitetura seria mais estável e eficiente do que o tradicional processo de modelagem de negócios o qual se preocupa com detalhes do “como fazer” para uma proposta baseada no mapeamento das capacidades de negócios, ou seja “o que fazer”.
A atual dinâmica do mundo dos negócios requer que as empresas sejam capazes de se adaptar rapidamente a mudanças. O autor começa o texto com uma frase de impacto de autoria de Charles Darwin, relacionada a evolução das espécies, mas que se adapta perfeitamente ao atual ambiente de negócios: “Não é a espécie mais forte ou inteligente que irá sobreviver, mas aquela que consegue se adaptar mais rapidamente às mudanças”. Esta frase pode ser complementada com outra, também de impacto, que Joelmir Betting gosta de usar em suas palestras: “No mundo dos negócios de hoje, não é o maior ou mais forte que engole o mais fraco, mas o mais rápido que engole o mais lento”.
Como a palavra chave hoje é “mudança”, o autor argumenta que as tradicionais arquiteturas que modelam os processo de negócios baseado no “como” eles fazem acabam engessando a empresa dificultando as adaptações necessárias.
O atual mundo competitivo e globalizado no qual as empresas atuam exige uma arquitetura de negócios e sistemas de informação capazes de superar os limites físicos da empresa e devem considerar requerimentos mais flexíveis que envolvem colaboração entre redes de empresas e parceiros de negócios que compartilham recursos e informações. Estas redes são dinâmicas, os mercados são dinâmicos e os sistemas que dão suporte a esta troca de informações devem ser capazes de adaptarem-se a estas mudanças.
A orientação a serviços ou “Web Services” é uma arquitetura de sistemas voltada para a distribuição e flexibilização da comunicação entre sistemas complexos, em plataformas distintas e fisicamente distribuídas, com tecnologia de desenvolvimento distinta. Esta flexibilização da comunicação reflete a atual realidade do mundo dos negócios.
Orientação a serviços significa oferecer serviços (informação) com confiabilidade e operacionabilidade, de forma protegida e controlada sobre a WEB, usando padrões comuns. Esses serviços são publicados e consumidos através de interfaces padronizadas. A principal característica desse protocolo é permitir a interoperabilidade independente da plataforma, do provedor e da localidade, ou seja, é sinônimo de flexibilidade.
O autor afirma porém que os “web Services” sozinhos não resolvem todos os problemas de TI da empresa, como aderência a estratégias de negócios e, principalmente, garantir espectativa máxima de vida dos sistemas apesar de constante ambiente de mudanças.
Para alcançar estes objetivos ele sugere a modelagem do negócio baseado no mapeamento das capacidades de negócio da empresa.
Uma rede de capacidades de negócios irá modelar “o que” a empresa faz, comportamento visível externamente, diferente do “como” ela faz, o qual é um comportamento interno. Uma capacidade também se preocupa com seu esperado nível de performance. O “como” ela faz é tratado como uma caixa-preta neste nível de abstração.
Capacidades são descritivas o bastante para entender como uma função se encaixa no negócio e o que é necessário para interagir com ela. As capacidades são estáveis, por exemplo, vender produto. Isto a empresa sempre terá que fazer. Já o “como” eu vou vender estes produtos pode variar. Por exemplo, um processo de reengenharia que irá mudar de um canal tradicional de vendas para o comércio eletrônico.
O aspecto de rede dessas capacidades descreve como elas interagem para executar os requerimentos de negócios. É nesse cenário que o modelo de capacidades e os “web services” se casam. Os “web services” publicam ou disponibilizam os serviços ou informações independente de quem vai consumir ou como vai consumir. Eu posso tranqüilamente mudar o processo, o componente que executa o “como”, que o serviço de acesso aos serviços ou informações ainda estará disponível na interface padrão.
O processo de integração entre empresas (“Supply Chain”) é um bom exemplo. Ocorreu através dos tempos a evolução de uma arquitetura linear, que já era complexa, para uma muito mais complexa rede de parceiros de negócios que trocam informações, serviços e produtos entre si de forma colaborativa extrapolando os limites da empresa.
O paradigma hoje é a integração e a cooperação com clientes e demais parceiros de negócios. O problema ocorre porque, na maioria dos casos, os sistemas das empresas não foram modelados para absorver estas mudanças, o foco até então era a integração de aplicativos internos e este novo paradigma é muito mais do que isto.
Como não é possível para as atuais arquiteturas serem adaptadas para este ambiente de mudanças constantes é necessário um modelo mais adequado. Estas mudanças caminham no sentido de se buscar um modelo mais estável de arquitetura, baseado nas capacidades de negócios, ou seja buscar elementos que poderão garantir vida mais longa para a aplicação e permitam tratar melhor com este ambiente de mudanças.
A proposta do autor é modelar o negócio como uma estrutura de capacidades interconectadas, na forma de camadas, de maneira a alinhar o conceito de orientação a serviços com os direcionadores de negócios.
Este mapa de capacidades de negócios e orientação a serviços provê um conjunto de ferramentas que modelam o negócio para além de suas fronteiras físicas, formando uma rede que inclui toda sua cadeia de valor, integrando clientes, fornecedores e demais parceiros.
Como trata-se de uma rede de capacidades, um dos aspectos mais importantes do modelo está relacionado a como uma capacidade se relaciona com outras capacidades ou como modelar esta conexão.
A modelagem das conexões é extremamente importante pois é ali que podemos tratar com as questões da mudança enquanto as capacidades permanecem estáveis como caixas pretas.
Uma capacidade provê um serviço que é consumido por outras capacidades. Aí está força do modelo para tratar com questões da mudança. Cada capacidade é modelada como um componente que possui interfaces de consumos de serviços (entrada) e a interface de serviços produzidos (saída). Eu posso trocar um componente que produz os serviços por outro componente sem afetar os demais, ou seja, componentes são independentes.
Esta modelagem focada na conexão provê flexibilidade de se poder trocar quem executa o serviço pois não foca nos detalhes de como o processo é executado, mas na interface exposta.
O modelo proposto pelo autor se baseia num conjunto de capacidades de negócios aninhadas de maneira hierárquica.
No primeiro nível hierárquico são representadas as capacidades base, ou de fundação, e endereçam todo o ecossistema de negócio. São representadas em duas categorias: Capacidades de operação e capacidades de ambiente.
As capacidades de operação estão relacionadas ao ambiente interno de negócio e são assim classificadas:
1. Desenvolver produtos e serviços ou pesquisa & desenvolvimento;
2. Gerar demanda para estes produtos e serviços;
3. Produzir e entregar serviços e produtos;
4. Colaboração e comunicação com parceiros;
5. Planejamento e gerência do negócio;

As capacidades de ambiente são:
1. Relacionamento com clientes;
2. Gerenciamento de canais de distribuição;
3. Fornecedores;
4. Serviços de logística externa;
5. Instituições financeiras;
6. Infra estrutura e legislação.

No segundo nível ou nível 2 são modelados os grupos de capacidades. Elas representam o detalhamento das capacidades do nível 1. Por exemplo, a capacidade de nível 1 “Desenvolver produtos e serviços” pode possuir um grupo de capacidades “Planejar produtos e serviços”.
São descritos os níveis de serviços necessários, as restrições, os impedimentos e quem são os responsáveis mais adequados para executá-las.
No terceiro nível cada grupo de capacidades é decomposto em capacidades de negócios, as quais, por sua vez podem ser decompostos em um conjunto mais granular de capacidades de negócio até modelar todo o atual status do negócio.



Conclusão:

A grande força deste modelo é a integração do conceito de “web Services” com a modelagem dos processos de negócios.
Modelando as capacidades como componentes, com interfaces definidas de serviços providos e requeridos, sem a preocupação do “como” ela funciona para prover estes serviços (caixa preta) realmente é garantida estabilidade ao modelo pois é possível substituir um componente sem afetar os demais.

terça-feira, 7 de agosto de 2007

Por quê é tão difícil desenvolver e implantar sistemas de informação eficazes nas empresas?

Artigo publicado como parte do processo de avaliação do curso CE-278 – Modelagem e Gestão de Processos do Prof. Yano (ITA2007)


Apesar da grande maioria das empresas investirem consideráveis fatias do seu orçamento em tecnologia da informação, existem queixas generalizadas por parte dos principais executivos que o retorno em termos de produtividade não ocorre nas mesmas proporções. A grande maioria relata que o contrário acontece, ou seja, quanto mais se investe parece menor o retorno. É o chamado paradoxo da produtividade em TI. Foram feitos alguns estudos no final dos anos 90 e início deste século que realmente comprovaram esta teoria.
Existem alguns autores que afirmam que na verdade TI já não gera diferencial estratégico algum, principalmente se considerarmos o volume de investimentos necessários para sua implantação e manutenção.
Em seu famoso artigo “IT doesn´t matter” [Car 2003], Nicholas Carr afirma que TI está virando uma comoditty, todas as empresas possuem os mesmos sistemas, mesmos processos e com isto estão eliminando seus diferenciais competitivos.
A grande verdade por traz disso está no fato de que não é a tecnologia da Informação a grande vilã, o problema está mais relacionado ao uso incorreto da TI, de sistemas de informação que não fazem o que se esperava que eles fizessem apesar dos altos investimentos para sua aquisição ou desenvolvimento, ou seja, a culpa é o uso inadequado das capacidades que a TI oferece.
Isto se dá porque, na maioria das vezes, os executivos não TI caminham em descompasso como o pessoal especializado em TI e também porque a tarefa de implantar sistemas de informação eficazes não é uma tarefa simples pois existem inúmeras variáveis envolvidas.
Esta dificuldade está alicerçada, principalmente, em quatro fatores chave de sucesso que não são devidamente considerados durante o processo de implantação de qualquer tecnologia de informação em especial nos sistemas de informação.
São eles: Falta de alinhamento estratégico, mudanças culturais, processos inadequados e dificuldades inerentes a tecnologia, fatores estes que serão comentados a seguir.

1. Falta de Alinhamento estratégico:

Os executivos não TI costumam envolver-se somente nas fase de definição de uma tecnologia que será implantada. Tendo como base um conjunto de alternativas oferecidas pelo pessoal da área de TI e após definirem o montante disponível para investimento eles escolhem entre uma ou outra alternativa. A partir daí todo o processo passa a ser conduzido pelo pessoal de TI, e, em muitos casos, sendo este pessoal oriundo de empresas terceirizadas, o que é ainda pior. O correto seria estes executivos definirem primeiro quais tecnologias devem ser usadas, totalmente alinhadas com as estratégicas de negócio para depois definirem o montante que deverá ser investido solicitando que o pessoal TI apresente as opções existentes para solucionar o problema.
Jeanne W. Ross e Peter Weill em seu artigo “Seis decisões que sua equipe de TI não deve tomar” [Ros 2002], deixam bem claro a necessidade do envolvimento continuo dos executivos não TI no processo de definição e implantação de TI para que, de maneira correta, estes sejam tratados como projetos de negócio e não projetos de TI. Os autores conduziram uma pesquisa que demonstrou que em empresas onde ocorre o correto envolvimento dos principais executivos no processo de implantação de TI os retornos são 40% mais altos do que a concorrência, ou seja, são projetos estratégicos para a empresa.
As seis decisões são: Quanto gastar em TI?; A que processos de negócio aplicar as verbas de TI?; Que funções de TI tornar comuns a toda a empresa; Quão bons devem ser os serviços de TI?; Que riscos serão aceitos à segurança e à privacidade? e Quem culpar caso uma iniciativa de TI fracasse?.
São os executivos que sabem onde querem chegar com o negócio e eles devem definir como e quais sistemas de informação devem ser implantados para alcançar estes objetivos, ou seja, como eles devem estar aderentes às estratégias de negócio. Se deixar nas mãos do pessoal TI eles vão tentar informatizar tudo, vão gastar fortunas, vão engessar o negócio, vão fechar o negócio para o mundo, enfim vão atrapalhar mais do que ajudar e a chance de não dar certo é muito grande.
Outro motivo que dificulta a implantação de TI são as tentativas fracassadas de implantação. Quando ocorre um fracasso na implantação de um sistema, as dificuldades da próxima tentativa aumentam consideravelmente. No artigo “Tecnologia da Informação: empecilho ou motor de crescimento” [Bain 2005] os autores citam que as empresas ficam resistentes a novos investimentos em TI quando ocorreram fracassos nas tentativas anteriores. É como se a empresa entrasse em parafuso em relação a TI, os investimentos passam a ser reduzidos com medo de novos fracassos. A partir desse momento qualquer nova iniciativa de implantação passa a sofrer sérias dificuldades e conseqüentemente falha.
A falta de planejamento estratégico em relação a TI ou mesmo a falta de controle sobre o processo de implantação (falta de governança) são muitas vezes responsáveis por sistemas ineficientes, que extrapolam prazos, orçamentos e acabam sendo implantados de maneira forçada por exigência dos executivos, quase sempre com resultados não desejáveis.

2. Mudanças culturais

Outra grande dificuldade encontrada durante a implantação de sistemas de informação está relacionada às mudanças na forma como as pessoas trabalham ou mudanças nos processos de negócio. Se a implantação de um sistema não mudar em nada a forma como as pessoas trabalham ou não ocorrerem mudanças nos processos de negócio é bem provável que alguma coisa está errada. Os especialistas costumam citar que os ganhos em termos de produtividade e eficiência relacionados a implantação de sistemas de informação são devidos principalmente às mudanças nos processo de negócio, os ganhos relativos a tecnologia implantada costumam ser marginais.
Mudanças culturais, mudanças de processos e mudanças na estrutura de poder de uma empresa sempre causam resistência e dificuldades para o pessoal da área de TI. As pessoas resistem a sair da zona de conforto, resistem usar novos sistemas ou tecnologias que mudem sua maneira de trabalhar.
Se os analistas de negócio que irão implantar o novo sistema não envolverem os usuários corretamente (usuários chave) ou a direção da empresa não se envolver com a gestão de mudança das pessoas e dos processos em relação à esta nova tecnologia, a resistência será forte e as chances de sucesso diminuirão.
Esta gestão de mudança engloba desde a comunicação para os colaboradores do porque da implantação do sistema, mostrando claramente a importância do projeto, atividade esta que deve ser de responsabilidade de um executivo de alto escalão, passando pelo treinamento dos usuários até o planejamento e definição das estratégias de implantação.

3. Processos inadequados de desenvolvimento

Sistemas de informação são ferramentas estratégicas de negócio e como tal devem ser tratados. Se o processo de análise, modelagem e desenvolvimento do sistema não seguir as práticas preconizadas na engenharia de software as dificuldades podem ser grandes.
Se os analistas não modelarem corretamente os processos com o envolvimento e validação dos usuários chave, o produto final provavelmente não será satisfatório podendo ocorrer estouro de cronogramas e orçamentos.
Esta dificuldade é ainda maior quando o processo for terceirizado, o que é uma tendência nos dias de hoje, haja vista que a equipe terceirizada possui dificuldades ainda maiores de envolver os usuários, conhecer e mudar processos estratégicos de negócio.
A implantação de sistemas integrados de gestão (Enterprise Resourcing Planning) normalmente mexem profundamente com a empresa. Estes sistemas, quase sempre comprados prontos, exigem uma adequação maior da empresa ao sistema, com pouca customização. Estas mudanças, se não seguirem processos claros e muito bem definidos podem inviabilizar a sua implantação. Em muitos casos, mesmo depois de implantados, acabam não dando os resultados esperados gerando frustrações.

4. Dificuldades inerentes à tecnologia

Apesar das ferramentas atuais de desenvolvimento serem mais poderosas em termos de recursos e também em produtividade, elas requerem alto grau de conhecimento por parte de analistas e programadores. O custo da mão de obra é caro e não existe mais espaço para o amadorismo.
Por outro lado, a demanda por sistemas complexos como Supply Chain Management, Customer Relationship Management, Business Intelligence, Comércio Eletrônico, etc., os quais são capazes de gerar diferencial competitivo real para as empresas, são complicados de serem implantados pois envolvem integração de sistemas desenvolvidos com tecnologias diferentes, plataformas diferentes, em empresas diferentes, etc.
O comércio eletrônico apresenta uma mudança de paradigmas, pois trouxe distribuição maciça de recursos computacionais, problemas de segurança, grande volume de informações trafegando em rede, enfim, a vida do programador não é muito tranqüila.
As linguagens visuais de quarta geração foram um grande avanço em termos de facilitar a vida dos programadores. A facilidade de uso destas linguagens também provocou o fenômeno do desenvolvimento de sistemas por parte do usuário final, que, cansado de esperar na fila para que seu problema fosse resolvido pelo pessoal de TI, acabou desenvolvendo suas próprias soluções.
O problema desses sistemas logo começaram a aparecer, pois houve uma proliferação de “soluções” não integradas, sem consistência, sem segurança ou aderência às boas práticas de programação. Duplicidade de dados não consistentes, versões diferentes do mesmo sistema em vários departamentos, um verdadeiro caos.
Estas verdadeiras “Babéis” acabaram se tornando legados difíceis de serem absorvidos pelos novos sistemas dificultando ainda mais sua implantação.

Conclusão

Em todos os casos citados não é a tecnologia da informação em si a responsável pelas dificuldades de implantação, mas o fato de ser usada de maneira inadequada.
Estas dificuldades demonstram que TI não é algo trivial de ser implantado, não basta somente investir recursos financeiros. É necessário usar boas práticas de planejamento e governança, é necessário possuir uma equipe de TI altamente especializada e motivada ou então garantir uma boa parceria com empresas terceirizadas, além, é claro de um nível de investimento adequado. O seu valor estratégico para os negócios faz com que esta seja uma área que deve ser tratada da mesma forma e importância que as áreas de negócio relacionadas com o Core Business da empresa, onde o amadorismo pode custar muito caro.

Bibliografia

[BAIN 2005] David Shpilberg, Steve Berez, Thomas Gumsheimer, Jean-Claude Ramirez, Tecnologia da Informação: empecilho ou motor de crescimento http://www.bain.com/bainweb/pdfs/cms/hotTopics/IT%20Growth%20Engine.pdf

[CAR 2003] Nicholas G. Carr, TI já não Importa Harward Business Review – Maio de 2003

[ROS 2002] Jeane W. Ross e Peter Weil, Seis decisões que sua equipe de TI não deve tomar, Harward Business Review – Novembro de 2002