Big Data

Ξ Deixe um comentário

Machine Learning, o caminho até o cliente

publicado por Cezar Taurion

Figura - Machine Learning, o caminho até o cliente O termo Big Data nos remete de imediato a percepção de coleta e manutenção de imensos volumes de dados, de forma estática. Mas uma coisa é coletar e armazenar dados, e outra extrair informações úteis a partir deles. Assim, devemos olhar o termo Big Data como um arcabouço de diversas tecnologias que permitem não só armazenar, mas também analisar e visualizar os resultados. Tradicionalmente, a ciência de dados sempre foi dominada pelo processo de tentativa e erro, abordagem que se torna impossível quando os volumes de dados são grandes e heterogêneos. Ironicamente, a disponibilidade de mais dados geralmente leva a menos opções na construção de modelos preditivos, porque poucas ferramentas permitem o processamento de grandes conjuntos de dados em um período razoável de tempo. Além disso, as soluções estatísticas tradicionais geralmente se concentram em análise estáticas limitadas pelas amostras que estão congelados no tempo, o que muitas vezes resulta em conclusões que não mais correspondem à realidade e, portanto, não confiáveis. Precisamos analisar os dados para gerarmos insights e a partir daí gerar valor para o negócio com as ações em cima destes insights.

Assim, um assunto que começa a permear discussões e eventos de TI é o que chamamos de “machine learning”. Antes domínio exclusivo do hermético mundo dos pesquisadores de IA (Inteligência Artificial) agora é base tecnológica e viabilizador do modelo de negócios de empresas digitais como Amazon, Netflix, Google, Airbnb e outras. Mas, o que é “machine learning? Bem, podemos recorrer ao Wikipedia e também simplificar dizendo que são sistemas que se propõem a construir soluções baseadas em algoritmos que podem aprender dos dados ingeridos, sem o uso de programação baseada em regras, a programação tradicional que conhecemos. Um exemplo bem emblemático de aplicação do conceito é o sistema Watson da IBM.

Embora não seja novidade no âmbito da pesquisa, só agora começa a entrar no radar do mundo corporativo. Aqui e ali já vemos diversos casos bem-sucedidos de sua aplicabilidade. É sustentação de modelos de negócios como o Airbnb e sugiro uma leitura de como eles o aplicam em “At Airbnb, Data Science Belongs Everywhere: Insightsfrom five years of hypergrowth” onde é descrito pelo seu primeiro data scientist como a empresa usou Data Science desde o inicio. É um depoimento bem interessante pois mostra que mesmo uma pequena start-up (Airbnb nos seus primeiros dias) pode começar usando dados intensamente desde sua criação. Também sugiro a leitura de como o algoritmo de precificação dinâmica do Airbnb, o Aerosolve, funciona, agora que está disponível em open source. A empresa de games Zynga é outro exemplo e vale a pena conhecer um pouco de sua experiência em “Zynga analytics at its peak”.

Nos EUA a aplicação de “machine learning” está bem mais avançada que por aqui. Já existem várias start-ups especializadas e muitas empresas estão adotando o conceito com resultados bem significativos. Algumas empresas veteranas se reinventam baseadas em dados. O melhor exemplo é a GE, única empresa que ainda existe da primeira lista de empresas do índice Dow Jones depois de quase 120 anos. A entrevista do seu CEO, Jeff Immelt, mostra claramente sua estratégia.

E por aqui, porque ainda vemos pouca aplicabilidade? A situação econômica atual é desafiadora, mas também é rica em oportunidades para fazer-se o novo ou de modo diferente de como fazemos há uns dez anos. É a oportunidade da aplicação do conceito de “Destruição Criativa” de Schumpeter, e abre espaço para novos produtos, novos mercados e novos modelos de negócio. Em seu livro “Capitalism, Socialism and Democracy”, Joseph Schumpeter afirma que o ponto essencial ao lidar com o capitalismo é compreender que se está lidando com um processo evolucionário. O capitalismo é, por natureza, um método de mudança econômica e nunca poderá ser estacionário. O impulso fundamental que mantém a máquina capitalista em ação vem dos novos produtos, dos novos métodos de produção, dos novos mercados ou das novas formas de organização industrial que as empresas criam. Há uma constante revolução de dentro da estrutura econômica, destruindo a velha ordem e criando uma nova. E como ele diz: “Esse processo de destruição criativa é o fato essencial sobre o capitalismo”. A situação atual nos obriga, por sobrevivência, a pensar de forma criativa, para superar os limites que a acomodação de ventos a favor nos colocaram.

É papel dos executivos e dos CIOs das empresas encararem o desafio de frente. Ficarem paralisados não os permitirá avançar. Por que não usar criatividade para iniciar as transformações que já se mostram necessárias? Muitas soluções de tecnologia são open source e mesmo soluções de fornecedores tradicionais já começam a sentir o efeito do modelo SaaS, com preços muito menores do que os oferecidos pelo obsoleto modelo de licenças que imperou na indústria de software por décadas. Aliás, um teste simples para saber se seu fornecedor de software está realmente comprometido com o modelo SaaS ou é apenas discurso comercial, veja seu web site. Se ele permitir apenas ver as funcionalidades do produto e o obrigar a ir a um representante apara adquirir licença ou assinatura de uso, não é SaaS. Mas se o website fizer parte do produto, ou seja, a partir dele já começamos a nossa primeira experiência de uso, com assinatura direta, é sim, SaaS na sua essência.

Voltando a “machine learning”. O CIO que quer se manter relevante precisa influenciar e encorajar as iniciativas de uso de Data Science na empresa. Disseminar o conceito de analytics com soluções que permitam self-service. TI não deve mais ser o gargalo e o setor que diz “não”.

Como começar? Uma sugestão é um processo de aprendizado onde aplicabilidade pode ser gradualmente se sofisticando. Começar com análises descritivas que apontem o por que determinada situação ocorreu. Apesar de muitas empresas terem BI, não conseguem saber o por que aconteceu, apenas o que aconteceu, pois sua fonte de dados são alguns poucos sistemas corporativos. O ERP, por exemplo, mostra quanto a empresa vendeu, mas não o que não foi vendido. Então como saber se aquele cliente que está comprando cada vez menos é porque está sem dinheiro ou por que está comprando mais do concorrente? Quantas redes varejistas analisam potencial de cada loja versus seu desempenho em relação ao entorno (que inclui potencial socioeconômico e concorrência)?

Passamos ao estágio preditivo, onde apontamos o que acontecerá e chegamos a fase prescritiva, onde conseguimos influenciar o contexto de modo que aquilo que prevemos que irá acontecer, terá muito maior probabilidade de acontecer. Vejo pouco uso de análises preditivas. Quantas empresas de telecomunicações fazem análise preditivas da possibilidade de determinados clientes se desconectarem nos próximos meses?

A análise prescritiva ainda está no horizonte. É o futuro, mas chega rápido. Afinal é fundamental para um negócio saber não apenas que clientes vão embora, mas porque eles irão embora e assim conseguir agir para impedir sua saída.

Estamos imersos em um oceano de dados. Temos condições de saber quase tudo sobre nossos clientes, pelos seus cliques, sua compras nas lojas físicas, seus posts, chats com o sac, etc., etc. Na minha opinião analisar dados e adotar soluções de “machine learning” deveria estar na agenda prioritária dos C-levels. Creio que não se discute mais seu valor. Então me pergunto, mas, porque ainda não está?

[Crédito da Imagem: Machine Learning – ShutterStock]

Autor

Cezar Taurion é head de Digital Transformation da Kick Ventures e autor de nove livros sobre Transformação Digital, Inovação, Open Source, Cloud Computing e Big Data.

Cezar Taurion

Comentários

You must be logged in to post a comment.

Busca

Patrocínio

Publicidade



Siga-nos!

Newsletter: Inscreva-se

Para se inscrever em nossa newsletter preencha o formulário.

Artigos Recentes