Notícias em destaque

Byadmin_rs

5 erros comuns no processo de transformação digital das empresas

Processo não é tão simples como parece. Confira dicas para ter sucesso em sua estratégia digital

Que é necessário digitalizar os documentos para continuar sobrevivendo no mercado todo mundo já sabe. Mas a sua empresa está preparada para a transformação digital?

O processo não é tão simples como parece. Embora ainda existam aqueles que nem começaram a se preocupar com isso (e estão correndo o risco de serem devorados pela tecnologia), temos também os que estão tentando se aventurar na transformação digital de forma não-estruturada, o que pode aumentar a chance de erros e as perdas financeiras.

Segundo o estudo IDC FutureScape: Worldwide Digital Transformation 2018 Predictions, os investimentos diretos em transformação digital vão somar US$ 6,3 trilhões para o triênio 2018–2020. Ainda assim, a consultoria alerta que 59% das empresas globais ainda estão no que ela chama “impasse digital” e permanecem enroscadas nos estágios dois ou três do índice de maturidade digital.

Abaixo listei os erros mais comuns que vejo acontecer nas empresas no processo de transformação digital:

  1. Área de TI trabalhar isoladamente dentro da companhia

Não é de hoje que ouvimos que a TI precisar estar mais próxima do negócio. A necessidade de reinventar-se digitalmente pela qual passam as empresas faz com que o CIO necessite de novas soluções de monitoramento para não perder a visão do panorama geral de TI. A área de TI deve conversar de igual para igual com as demais áreas.

  1. Processos controlados manualmente

Quando os processos não são controlados de forma automática, ocorrem as falhas humanas e isso confunde o gestor, que continua sem saber as causas dos incidentes e não consegue tomar as decisões acertadas.

  1. Contratos “sem metas” com fornecedores

Um dos erros mais comuns é manter contratos fixos e sem SLA (Service Level Agreement) com os parceiros de negócios. Para que atue em função do negócio, é fundamental que a empresa classifique os incidentes adequadamente e contrate, avalie e pague parceiros e fornecedores com base no esforço operacional e no resultado de suas entregas. Afinal, tão importante quanto ter metas é conseguir controlar e mensurar os resultados.

  1. Manter um serviço parcial de monitoramento de dados

Seja a operação gerida pela equipe interna ou um parceiro tecnológico é essencial ter um serviço de monitoramento de dados imparcial, que possibilite coletar os dados de maneira transparente. Toda a equipe deve ser conscientizada disso para que o gestor tenha condições de melhorar a operação.

  1. Não acompanhar as rotinas em tempo integral

Manter uma política bem estabelecida de gestão de backup é mandatório para o sucesso da transformação digital. Portanto, é preciso fazer o acompanhamento das rotinas no esquema 24×7 para que seja possível identificar qualquer alteração no ambiente que possa interferir no backup. O acompanhamento de rotinas é uma prática que deve fazer parte de toda a operação de TI, controlando indicadores e analisando as causas de possíveis falhas.

Para se ter uma ideia, 80% das políticas de gestão de backup possuem falhas que não são de conhecimentos dos gestores de TI e 50% dos backups existentes não atendem uma situação de desastre. Preocupante, não?

Portanto, tenha em mente que a gestão de dados inteligente aliada a uma boa política de gestão de backup é fundamental para transformar a área de TI em uma cadeira muito mais estratégica que operacional e permitir a digitalização da sua empresa de forma segura e eficiente.

Fonte: Computerworld

Autor: Alexandre Paoleschi

Byadmin_rs

Checklist para a adoção da nuvem

Dez itens devem ser verificados antes da decisão de migrar para o novo modelo

Se sua empresa ainda não usa Cloud omputing como parte das operações diárias, há uma boa chance de o modelo invadir a companhia nos próximos anos. 

 Um dos principais benefícios da nuvem é a sua capacidade para a terceirização da infraestrutura e da gestão de aplicações complexas e serviços de dados, permitindo que os gerentes de data centers adquiram ciclos de computação e capacidade de armazenamento de uma forma mais granular, sob demanda. Em vez de gastar capital a granel com grandes servidores e soluções de armazenamento, você pode comprar tempo de computador com base no uso real de ciclos de CPU e a quantidade de gigabytes ou terabytes utilizados no armazenamento.

Migrar dados críticos e aplicações para a nuvem pode ser significativamente mais rentável do que manter o hardware nas instalações da empresa. Como seus dados são armazenados na infraestrutura do provedor de serviços, não há necessidade de investir na compra de equipamento, manutenção ou atualização do servidor.

Além disso, como os dados e o software estão sob responsabilidade de um provedor, a companhia contratante pode diminuir o número de funcionários de TI ou contratados necessários para manter o hardware on premise funcionando, direcionando-os para atividades mais estratégicas que agreguem valor aos negócios.

Ao migrar os dados da companhia para uma empresa especializada no fornecimento de soluções de computação em nuvem, a organização não está apenas investindo em uma solução de armazenamento off-site, mas também comprando um pouco de tranquilidade.

Isso porque, provedores de soluções em nuvem como Amazon, IBM, Cisco e Microsoft contam com funcionários treinados prontos para responder a emergências, frustrações e fracassos 24 horas por dia, 365 dias do ano, garantindo que companhia e funcionários tenham acesso a arquivos e aplicações de negócio. Além disso, eles dão a assistência necessária quando solicitados.

Por padrão, a computação em nuvem oferece uma solução de backup instantânea fora do local em que está rodando. Em casos de desastres no escritório, por exemplo, a continuidade dos negócios será assegurada, graças ao fato de que as informações são replicadas para outro local.

Ter uma solução de computação em nuvem significa também poder crescer rapidamente para atender às demandas de funcionários e clientes é uma obrigação. Conforme os negócios crescem, a solução baseada na nuvem pode ser rapidamente escalada para atender às crescentes necessidades.

Essa movimentação pode ser especialmente importante para empresas que dependem de vendas na web como representatividade significativa da receita. A falta de capacidade do servidor pode rapidamente resultar em vendas perdidas.

Em essência, a nuvem muda a sua estrutura de custos e gestão de TI a partir da compra de equipamentos, contratação de profissionais e operação de datacenters internos para um paradigma orientada a serviços em que você compra apenas o que você precisa quando você precisa. Torna-se problema de outra pessoa certificar-se que tudo está seguro, disponível e confiável.

No entanto, há sempre vantagens e desvantagens em entregar o controle de sua TI para outra pessoa. Você precisa ter certeza de que vale a pena, e que funciona.

Aqui estão dez itens para verificar antes de adotar a nuvem:

1) O contrato é bom o suficiente para protegê-lo, não importa o que acontecer com o fornecedor nuvem?

2) O que acontece se e quando o provedor falhar?

3) Como você pode mudar de fornecedores e mover os dados se quiser deixar o serviço?

4) Você conhece seus atuais custos internos, e vai migrar para a nuvem para reduzi-los?

5) Existe alguma flexibilidade na capacidade de escolher produtos de fornecedores específicos, ou você está preso ao que é oferecido?

6) Se o seu desejo é a terceirização de armazenamento, existem preocupações com o desempenho?

7) Se houver preocupações, existem garantias?

8) E quanto à segurança dados e à criptografia?

9) Se você estará em um ambiente multi-tenant, haverá algum isolamento lógico ou físico?

10) Quais aspectos de confiabilidade estão implementados e disponíveis? Existe uma escala baseada em custo RAS para confiabilidade, disponibilidade, escalabilidade, ou todo mundo tem a mesma solução?

Tudo isso é importante para começar a avaliar se a computação em nuvem faz sentido para a sua organização.

Fonte: CIO
Autor: Chris Poelker e Seamus Bellamy, Computerworld/EUA

Byadmin_rs

5 passos para adotar AI, antes que seja tarde demais

Conheça os principais requisitos para obter vantagens com inteligência artificial e machine learning

A inteligência artificial (AI, na sigla em inglês) e o machine learning vão começar a tomar muito mais decisões. Eles provavelmente ainda não serão usados em um futuro próximo para tomar decisões “grandes”, como colocar uma tarifa de 25% sobre uma commodity e iniciar uma guerra comercial com um parceiro.

No entanto, praticamente qualquer coisa que você tenha colocado no Excel, codificado ou classificado é um bom problema de cluster, classificação ou aprendizado para a tecnologia. Tudo que for um conjunto de valores que podem ser previstos é um bom problema de machine learning. Tudo o que é um padrão, forma ou objeto que você acabou de passar e “procurar” é um bom problema de deep learning.

E os negócios estão cheios disso. Assim como o processador mundial substituiu o pool de máquinas de escrever, AI em breve substituirá os trabalhadores de escritório que estão olhando para o Excel – e também substituirá alguns analistas.

As empresas precisam se preparar para essa mudança. Assim como as empresas que não se preparavam para a web e o comércio eletrônico foram deixadas de lado, também as empresas que não se adaptam a AI e ao machine learning.

Para se preparar para essa mudança, você tem cinco pré-requisitos antes mesmo de iniciar uma transformação de negócios. São eles:

1.Educação

Você não pode tornar todos na sua empresa um cientista de dados. Além disso, parte da matemática está correndo muito rápido para nós, meros mortais – o algoritmo específico que as pessoas acham mais eficiente esta semana provavelmente não será o certo na próxima semana.

No entanto, algumas coisas básicas não vão mudar. Todos na sua organização devem entender alguns recursos básicos de aprendizado de máquina, especialmente desenvolvedores:

Clustering: Agrupando as coisas.

Classificação: Classificando as coisas em grupos rotulados.

Previsão em uma linha: se você puder criar um gráfico de linhas, provavelmente poderá prever qual será esse valor.

Predição de variância: se é um risco de liquidez ou vibrações ou picos de energia, se você tiver um conjunto de valores que se enquadram em um intervalo, é possível prever qual será sua variação em um determinado dia.

Classificando/ordenando/priorizando: não estou falando sobre coisas simples. Seja para pesquisa ou priorização, o que a pessoa de vendas ou de suporte chama de próxima, isso é algo que pode ser tratado.

Reconhecimento de padrões: seja uma forma, um som ou um conjunto de intervalos ou eventos de valores, os computadores podem aprender a encontrá-lo.

Uma coisa fundamental é ter um conjunto de pessoas que pode emburrá-lo para as pessoas com base no seu nível de habilidade. Seus desenvolvedores podem estar interessados em algoritmos ou técnicas específicas, mas seus analistas e executivos devem entender os problemas básicos de negócios e as técnicas de computação. Seus executivos não precisam saber como o clustering funciona, mas precisam reconhecer que um problema “parece” um problema de clustering.

Finalmente, você precisa de uma atualização de educação regular, pelo menos anualmente, porque os recursos estão se expandindo.

  1. Componentização

Algumas das ferramentas recentes em torno da componentização são “notebooks” para cientistas de dados – muitas das outras ferramentas crescem a partir delas. Essas são ótimas ferramentas para os cientistas de dados e seus colaboradores.

O problema é que eles encorajam práticas ruins quando se trata de produção. A interface para um algoritmo de classificação parece mais ou menos a mesma que todos os outros algoritmos. Uma implementação específica do algoritmo de classificação não muda com o problema de negócios.

Assim como muitas empresas tiveram que descobrir como fazer uma representação de um cliente (em vez de totalmente diferentes em cada sistema para cada problema de negócios), você precisa fazer o mesmo para os algoritmos. Isso não quer dizer que você inventa o algoritmo de cluster único, mas que você compõe o que é diferente.

  1. Sistematização

Apesar de toda a comoção, a maioria dos sistemas ainda parece o mesmo. Existe algum processo para obter os dados em um algoritmo, algum processo para executar o algoritmo e um local para colocar o resultado. Se você está projetando todas essas coisas várias vezes para cada algoritmo, está perdendo tempo e dinheiro e criando um problema maior para si mesmo. Assim como SOA mudou quantas empresas implementam software de aplicação, técnicas semelhantes são necessárias em como AI é implantada.

Você não precisa de um monte de clusters Spark personalizados funcionando com “cadernos” personalizados em todos os lugares e processos ETL personalizados. Você precisa de sistemas de AI que possam fazer o trabalho pesado, independentemente do problema de negócios.

  1. Componentização de AI/UI

Em um mundo de interface de usuário JavaScript/Web com serviços RESTful no back end, muitas de suas interfaces de usuário devem ser capazes de apenas misturar um componente AI. Seja uma recomendação baseada no comportamento do usuário ou um assistente virtual completo, sua empresa deve criar uma biblioteca de interface do usuário que inclua a funcionalidade da AI para incorporar facilmente aos seus aplicativos de negócios.

  1. Instrumentação

Nada disso funciona sem dados. Não vamos voltar a criar depósitos de dados grandes, nos quais apenas coletamos um monte de lixo no HDFS e esperamos que ele tenha algum valor algum dia, como alguns fornecedores o incentivaram a fazer. Em vez disso, vamos ver o que as coisas devem ser instrumentadas.

Se você está fabricando, há pontos de partida simples: qualquer pessoa que esteja usando um medidor manual está desperdiçando seu tempo. No entanto, mesmo em vendas e marketing, você tem e-mail e telefones celulares – os dados podem ser coletados automaticamente a partir deles, o que é claramente útil. Em vez de incomodar os vendedores a obterem a entrada de dados, por que não permitir que os sistemas façam isso sozinhos?

Fonte: Computerworld

Autor: Andrew C. Oliver – InfoWorld (EUA)

Byadmin_rs

Adoção de Data Analytics está mais lenta que o esperado, alerta o Gartner

Apesar de a área ser a prioridade número um em investimentos para os executivos de TI, maioria das organizações ainda não atingiu o nível de maturidade desejado

Há tempos Data e Analytics (D&A) vem sendo apontada como prioridade número um em investimentos para os executivos de TI (CIOs – Chief Information Officers). Mas a maioria das organizações (91% das 196 pesquisadas globalmente) ainda não alcançou um nível de maturidade em relação à tecnologia, informa o Gartner.

A pesquisa global solicitou aos entrevistados que classificassem suas organizações de acordo com os cinco níveis de maturidade para Data e Analytics. O levantamento apontou que 60% dos entrevistados em todo o mundo se classificaram nos três níveis mais baixos. 

A maioria dos entrevistados em todo o mundo se classifica no Nível 3 (34%) ou Nível 4 (31%). Já 21% dos pesquisados se classificam como Nível 2 e 5% no Nível 1. Apenas 9% das empresas pesquisadas pelo Gartner consideram que estão no Nível 5, o mais alto no qual estão os maiores benefícios da transformação.

Menos da metade (48%) das organizações da Ásia Pacífico (APAC) indicam que seus avanços em Data e Analytics estão nos dois níveis mais altos, seguidas por 44% das empresas da América do Norte e por apenas 30% da Europa, Oriente Médio e África.

Melhorar a eficiência dos processos foi, de longe, o problema de negócios mais comum que fez com que as organizações recorressem a Data e Analytics. Segundo a pesquisa, 54% dos entrevistados em todo o mundo apontaram esse tópico entre seus três principais problemas. O aprimoramento da experiência dos clientes e o desenvolvimento de novos produtos ficaram juntos em segundo lugar, com 31% dos entrevistados listando cada um desses problemas. 

“Organizações com níveis de maturidade de transformação possuem maior agilidade, melhor integração com parceiros e fornecedores, além de maior facilidade de uso de sistemas preditivos e de Analytics. Isso tudo se traduz em vantagem competitiva e diferenciação de mercado”, afirma diz Nick Heudecker, Vice-Presidente de Pesquisa do Gartner,

A pesquisa do Gartner revelou ainda que, apesar de muita atenção em formas avançadas de Analytics, 64% das organizações ainda consideram o relatório de negócios e painéis de controle (dashboards) suas aplicações de negócios mais críticas para Data e Analytics. Da mesma forma, fontes de informações tradicionais, como dados transacionais e registros também continuam a dominar, embora 46% das organizações reportem o uso de dados externos.

“Não presuma que a aquisição de novas tecnologias é essencial para alcançar níveis de maturidade em Data e Analytics”, diz Heudecker. “Primeiro, concentre-se em melhorar a forma como as pessoas e os processos são coordenados dentro da organização e, em seguida, veja como aprimorar suas práticas com parceiros externos”, indica o analista do Gartner. “É fácil se deixar levar com novas tecnologias, como Machine Learning e Inteligência Artificial”, explica Heudecker. “Mas as formas tradicionais de Analytics e de Inteligência de Negócioscontinuam sendo uma parte crucial do funcionamento das organizações atualmente. É improvável que isso mude em um futuro próximo”.

 Barreiras
As organizações participantes da pesquisa relataram uma ampla gama de barreiras que as impedem aumentarem o uso de Data e Analytics. Não há uma razão clara para isso, mas as organizações tendem a experimentar um conjunto diferente de questões, dependendo da sua localização geográfica e de seu nível atual de maturidade. No entanto, a pesquisa identificou as três barreiras mais comuns para essa questão: definição de estratégia de Data e Analytics; determinação de como obter valor dos projetos; e resolução de problemas de risco e de governança.

“Essas barreiras são consistentes com o que ouvimos de clientes que estão nos níveis de maturidade dois e três”, afirma Jim Hare, Vice-Presidente de Pesquisa do Gartner. “À medida que a maturidade organizacional melhora no ambiente corporativo, as questões organizacionais e de financiamento tendem a aumentar”.

Em termos de infraestrutura, o modelo on-premise ainda domina globalmente, variando entre 43% a 51% das implantações. As implementações puras de Nuvem Pública variam entre 21% a 25%, enquanto os ambientes Híbridos ficam entre 26% e 32%.

“Analytics Workloads estão baseados na origem na qual os dados são gerados e armazenados. Hoje, a maioria de Workloads de Nuvem Pública é nova e não veremos uma porcentagem de crescimento na utilização de Cloud até que os legados de Workloads migrem em massa para essa plataforma”, afirma Hare. “Esse cenário acontecerá em algum momento, mas essa mudança provavelmente levará vários anos para ser concluída conforme os esforços modernos de Data e Analytics utilizem esmagadoramente os tipos tradicionais de dados armazenados no local”.

A pesquisa foi realizada por meio de um levantamento on-line no segundo trimestre de 2017 entre os membros do Gartner Research Circle – um painel composto por líderes de TI e de negócios. No total, participaram da pesquisa 196 empresas de todas as regiões (EMEA, APAC e América do Norte) e de 13 diferentes segmentos da indústria, com receitas anuais que variam de US$ 100 milhões a US$ 10 bilhões.

Fonte: CIO

Byadmin_rs

11 motivos para ainda temer o ransomware

Conheça novas estratégias de evolução do malware e saiba como se proteger

As ferramentas e técnicas de detecção e recuperação de ransomware estão melhorando. Infelizmente, os desenvolvedores de ransomware também. Eles estão tornando o ransomware mais difícil de encontrar e os arquivos criptografados mais difíceis de recuperar.

Uma vantagem que as operações de segurança tiveram sobre o ransomware é que ele é previsível. Ele funciona de forma linear, o que oferece às ferramentas e equipes de segurança uma oportunidade de limitar os danos quando o ransomware é detectado. Agora, estamos vendo sinais de que os criadores de ransomware estão tornando seu trabalho menos previsível.

 “No final do dia, ransomware tem que fazer algo, como substituir ou bloquear o sistema de arquivos”, diz Brian Bartholomew, pesquisador sênior de segurança, análise e pesquisa global da Kaspersky Lab. A atividade linear associada à sobrescrita ou ao bloqueio de dados torna o ransomware fácil de detectar, observa ele. “Se você pensar em todos os arquivos em um sistema como uma lista, o ransomware vai direto para a lista e começa a criptografá-los”, diz Bartholomew.

Mas os hackers estão tentando mudar a natureza previsível do ransomware para evitar a detecção. Estes são alguns dos novos truques que estão usando.

  1. Abrandando o processo de criptografia

“Alguns criadores de ransomware espalharam essa rotina um pouco para que não acontecesse de uma só vez. Acontece durante um longo período de tempo ”, diz Bartholomew. O objetivo é estar abaixo do limite de qualquer ferramenta de detecção. “Diga que o AV está procurando por 1.000 arquivos sendo acessados em 10 segundos. Talvez eles aumentem esse prazo em 10 minutos para que a detecção não aconteça ”, diz Bartholomew. “Temos visto mais e mais disso”. Um grande risco de alongar a criptografia por um longo período de tempo, segundo ele, é que os arquivos de backup também podem ser criptografados.

  1. Randomizando o processo de criptografia

Os criadores de ransomware também estão randomizando sua abordagem para criptografar ou sobrescrever arquivos, em vez de passar por eles de forma linear. Isso ajuda a evitar a detecção por ferramentas anti-ransomware que buscam por um padrão mais linear.

  1. Entregando ransomware por meio de arquivos em vez de e-mail

Os links maliciosos no email ainda são, de longe, o método mais comum para fornecer ransomware. À medida que as organizações fazem um trabalho melhor de instruir os usuários a não clicar em links de e-mail questionáveis, alguns criminosos de ransomware estão mudando de tática. Em vez de um link, eles usam um anexo de documento que pode ser um PDF, um DOC Word ou outro tipo de arquivo comum. Esse documento contém um script que inicia o ransomware.

“Estamos vendo o que costumavam ser arquivos PDF benignos ou fotos JPEG agora carregando processos maliciosos que podem ser introduzidos em seu ambiente”, diz Hyder Rabbani, COO CyberSight, que vende um produto anti-ransomware. “Você recebe uma mensagem que diz: ‘aqui está sua fatura’ ou ‘aqui está sua foto. As pessoas sempre clicam nessas coisas.

  1. Criptografando o código do disco rígido

Talvez mais diabólicos, alguns hackers estão ignorando os arquivos e indo direto para o código no disco rígido. “Vimos rensomware que visam o registro mestre de inicialização. É o começo do disco rígido ”, diz Bartholomew. “Se eles podem corromper isso, então eles podem reter o resto do seu disco rígido sem ter que criptografar todos os arquivos.”

  1. Usando o código polimórfico

O uso de código polimórfico também complica a detecção de ransomware. “Para cada instância em que o malware é instalado em uma vítima diferente, ele irá alterar um pouco seu código antes de se espalhar novamente”, diz Bartholomew. “Isso torna difícil detectar estatisticamente os arquivos de ransomware.”

Rabbani observa que a frequência com que o código polimórfico muda – tão rapidamente quanto a cada 15 ou 20 segundos – é o que cria o desafio para os esforços de detecção. “Depois de descobrir a assinatura desse ransomware, fica mais fácil parar”, diz ele. “No entanto, como o código continua mudando, parece ser um novo ransomware, tornando muito difícil pará-lo.”

  1. Usando ataques multi-threaded

O típico ataque de ransomware lança um único processo para realizar a criptografia. Em um ataque de ransomware multi-threaded, o código do ransomware principal inicia vários processos-filhos para acelerar o processo de criptografia e dificultar a sua interrupção. “Talvez você possa parar um ou dois, mas os outros executam e continuam a causar danos”, diz Rabbani. “Torna-se exponencialmente mais difícil impedir os ataques paralelos.”

Um cenário de horror que Rabbani vê são os ataques multi-thread combinados com o código de ransomware polimórfico. “Você pode rapidamente sobrecarregar o processador e a memória, reduzindo a performance da máquina rapidamente”, diz ele.

  1. Melhorando suas habilidades de escrita de código

A descriptografia está ficando mais difícil à medida que os desenvolvedores de ransomware aprimoram seu ofício. “Obter uma ferramenta de descriptografia depende de algumas coisas”, diz Bartholomew. “O autor do ransomware cometer um erro ao implementar o processo de criptografia. Não fazer o gerenciamento de chaves adequado, por exemplo, ou usar um gerador de números predicáveis para uma chave. ”Esses erros permitem que os pesquisadores determinem as chaves de descriptografia do ransomware.

“Isso acontece mais vezes do que o esperado”, diz Bartholomew. “Geralmente os caras que escrevem essas coisas não são especialistas em criptografia.” Ele vê essa mudança, observando que está ajudando com um caso que envolve uma nova versão do ransomware Crysis. “Com as versões anteriores do Crysis, o autor cometeu erros com a criptografia, então pudemos escrever decifradores. Agora eles consertaram e não há como decifrá-lo”.

  1. Ransomware como distração

Outra tendência que Bartholomew viu crescer rapidamente no ano passado é o uso de ransomware como distração para esconder outro tipo de ataque. “Eles estão usando o ransomware como um ataque simples e destrutivo, talvez para agravar ainda mais a agenda política ou causar estragos na Internet, ou usá-lo para encobrir a instalação de malware em outro lugar.”

Usar o ransomware para obter ganhos financeiros ainda é o motivo mais comum para os criminosos. De acordo com uma pesquisa recente do SentinelOne, 62% de todos os ataques de ransomware são para ganho financeiro, enquanto 38% são para atrapalhar os negócios. Apenas 24% são motivados politicamente. Bartolomeo se preocupa que isso possa mudar. “Nós temos alguns atores que realmente cruzaram essa linha. Mais atores adotarão essa técnica. ”Ele cita uma onda do ransomware WannaCry que deixou os arquivos sem nenhuma maneira de descriptografá-los.

Os dois grupos que costumam comentar nos noticiários mais propensos a lançar ataques de ransomware destrutivos são atores patrocinados pelo Estado em nome de governos como os do Irã ou da Coreia do Norte e hacktivistas. “Isso não é algo que um colegial possa fazer. Para lançar uma campanha destrutiva de sucesso, você precisa de uma exploração, diz Bartholomew. Ele cita o WannaCry usando um exploit para o qual ninguém tinha um patch. “Não havia como impedir que essa coisa se espalhasse no começo.”

A única maneira de uma organização se proteger contra esses tipos de ataques de ransomware é manter uma boa higiene de segurança, garantir que seus usuários recebam treinamento de ransomware adequado e que tenham sólidos processos de backup e recuperação. Bartholomew observa que algumas empresas usam thin clients onde não há disco rígido nos sistemas dos usuários, onde eles entram em um sistema virtual. “Esses são fáceis de reverter porque são sistemas virtuais”, diz ele.

  1. Direcionando para sistemas operacionais dsatualizados

As versões mais recentes do Microsoft Windows 10 e do Apple MacOS são mais difíceis de atacar que as anteriores. A boa notícia para o ransomware é que existem milhões de sistemas mal corrigidos e desatualizado.

“Ataques destinados a sistemas operacionais mais recentes são um pouco menos populares, apenas porque é mais fácil explorar vulnerabilidades conhecidas”, diz Rabbani. Ele observa que a CyberSight tem “demanda massiva de clientes” para fornecer proteção contra ransomware em sistemas Windows XP. “Ouvimos quase diariamente clientes que estão, por exemplo, executando o XP em todos os seus sistemas de ponto de venda, com muitas vulnerabilidades que podem ser exploradas”, diz ele.

  1. Encontrando novas maneiras de se mover lateralmente através da rede

Rabbani espera que incidentes de movimentação lateral de ransomware “aumentem significativamente”. Um usuário pode usar um dispositivo móvel em um Starbucks ou hotel, por exemplo, e alguém carregar um malware no dispositivo por meio de uma porta de comunicação comprometida. “A partir daí, eles podem atravessar a rede e entrar nos servidores da empresa”, diz ele. “Isso tem uma probabilidade muito alta de aumentar”, alerta.

  1. Atrasando ataques de ransomware

Uma tática que Rabbani espera ver mais em um futuro próximo é o que ele chama de “postura de ovos de Páscoa”, onde o ransomware infecta um sistema, mas fica inativo por um largo período de tempo antes de ser ativado.

Como os pesquisadores se adaptam às ameaças em evolução

Nenhuma dessas adaptações torna o ransomware indetectável. “Você tem que tomar cada uma como algo conhecido e escrever detecções para elas. Analise, veja como o ransomware se comporta e mude suas detecções ”, diz Bartholomew, falando sobre como o Kaspersky se adapta às novas táticas de ransomware. “É um jogo constante de gato e rato.”

Algumas ferramentas de ransomware estão adotando uma abordagem mais orientada a dados para combater sua natureza em evolução. Os desenvolvedores do ShieldFS, por exemplo, o chamam de “um sistema de arquivos autocorretivo e compatível com ransomware”. Anunciado na Black Hat USA no ano passado, o ShieldFS cria modelos de detecção baseados em um conjunto de dados disponível publicamente que permite diferenciar o comportamento do ransomware dos processos normais. Se detectar ransomware, o ShieldFS pode reverter automaticamente os arquivos corrompidos de volta ao estado anterior ao ransomware.

Melhorara a colaboração e a comunicação também é uma arma importante contra o ransomware. Bartholomew cita um projeto que o Kaspersky Lab ajudou no lançamento chamado No More Ransom! Este projeto coleta e disponibiliza ferramentas de descriptografia de ransomware, oferece conselhos de prevenção e fornece uma maneira de relatar crimes de ransomware à comunidade.

Cooperar com a aplicação da lei é um aspecto importante do No More Ransom! “Podemos obter chaves fazendo com que as autoridades legais nos ajudem, capturando um servidor sendo usado pelo invasor”, diz Bartholomew. Se as chaves privadas estiverem no servidor, os membros do projeto podem disponibilizá-las pelo site e escrever ferramentas de descriptografia.

Para derrotar os esforços feitos para evitar a detecção, disfarçando ou alterando a assinatura digital do ransomware, alguns fornecedores concentram-se na análise comportamental, às vezes usando Machine Learning para identificar o ransomware. A abordagem é eficaz com ameaças conhecidas, mas não tanto com o novo ransomware, pois ele não possui os dados necessários para reconhecê-lo.

O desafio é identificar novas ameaças, criar os conjuntos de dados que a análise comportamental precisa para detectá-las e, em seguida, distribuir esses conjuntos de dados para todos que precisarem deles o mais rápido possível. É o que a CyberSight está fazendo com seu produto RansomStopper. “Nós curamos as mais recentes e melhores variedades de ransomware e as executamos através de nosso software para ver seu comportamento”, diz Rabbani.

O machine learning pode desempenhar um papel maior na identificação de novas variações de ransomware. Alguns sugeriram usá-lo para prever como uma variedade específica mudará com a próxima iteração baseada em versões anteriores. Este trabalho ainda é teórico, em grande parte, mas mostra como o Machine Learning pode eventualmente ser capaz de antecipar novas ameaças de ransomware e estar pronto para elas quando elas chegarem.

Fonte: Computerworld
Autor: Michael Nadeau – CIO (EUA)

Byadmin_rs

8 exterminadores de produtividade no gerenciamento da TI

Deixar de priorizar as principais iniciativas estratégicas para não ajustar as estimativas do projeto pode ser fatal

Existem dois tipos de exterminadores de produtividade no ambiente de trabalho moderno: pequenas distrações que minam seu foco e grandes aqueles fatores que levam a equipe a aplicar tempo e esforço nos lugares errados. Goste ou não, práticas ruins de gerenciamento de TI são as maiores causadoras de quedas significativas de produtividade.

A seguir, veremos oito dessas práticas que estão atrapalhando seu departamento de TI – e como ajustá-las.

  1. Negligenciar a priorização de projetos estratégicos
    Tem que apagar incêndios de vez em quando? OK, mas as situações de pânico tendem a ser raras, certo? O fluxo constante de perguntas ad hoc e solicitações de alteração dos usuários é o problema mais significativo.

Bom, garantir a felicidade dos usuários é um objetivo digno, mas você pode facilmente ser vítima de um pensamento de curto prazo.

“O maior erro de produtividade que a maioria dos gerentes e líderes de TI faz é não priorizar. Muitas organizações de TI estão sobrecarregadas com coisas importantes que precisam ser feitas, desde a manutenção de seus aplicativos e infraestrutura até a resposta a interrupções e problemas, incluindo respostas às necessidades de negócios em constante mudança”, diz Alan Zucker, diretor fundador da Project Management Essentials.

 “Em vez de priorizar o trabalho, a equipe de TI continua assumindo cada vez mais projetos. Ao expandir continuamente o número de projetos sendo trabalhados, o número de coisas sendo concluídas diminui. A qualidade sofre. Profissionais altamente qualificados e motivados ficam frustrados”, completa.

Como gerente de TI, você precisa dar o exemplo concentrando-se em projetos de alto valor. Caso contrário, sua empresa nunca fará progressos em seus objetivos estratégicos. Para atingir esses objetivos, aprimore suas habilidades de gerenciamento de projetos .

  1. Manter a mentalidade do colaborador ao fazer a transição para o gerenciamento

Quando os profissionais de TI entram no gerenciamento, enfrentam uma mudança difícil, pois as recompensas e expectativas que enfrentam como gerente são substancialmente diferentes. Gary Davenport, ex-presidente da CIO Association of Canada, viu novos gerentes de TI acabarem com a produtividade quando não conseguiram se adaptar ao gerenciamento.

“Os gerentes de TI que chegam às fileiras técnicas costumam ser recompensados por sua capacidade de trabalhar em um nível detalhado antes de serem promovidos para a gerência. Naturalmente, o que é exigido em níveis mais altos é muito diferente de ser um colaborador individual. Não é de surpreender que os gerentes de TI possam sentir o desafio ao fazer a transição. Sinais de alerta incluem uma incapacidade de deixar de lado os detalhes técnicos e, ao mesmo tempo, uma incapacidade de cumprir o verdadeiro papel de ser o líder”, diz Davenport. “Uma analogia relevante é se preocupar em arrumar as cadeiras do Titanic, sem ter uma visão maior do que é importante. Não seja um “arranjador de cadeiras”.

CIOs e executivos de TI precisam ajudar a equipe de suporte nessa transição antes que a “reorganização das cadeiras de convés” não ocorra. Reconheça que os novos gerentes de TI enfrentam uma transição difícil e os ajude compartilhando algumas de suas lições aprendidas ao longo do caminho.  

  1. Negligenciar o crescimento da sua rede

As reuniões no trabalho são como uma dieta: muito poucos prejudicam o sucesso do seu departamento. Como gerente, você tem influência significativa sobre as reuniões que participa. Por outro lado, algumas reuniões são críticas para o seu sucesso. Se você administra uma equipe de TI, leia a abordagem de Denis Zhirovetskiy:

“Vivemos em um mundo muito acelerado, e você é apenas um passo além das conversas com um novo cliente, novo fornecedor, novo funcionário. Dedico muito tempo a falar com as pessoas, indo a reuniões, eventos e leitura. Tento encontrar 20-30 pessoas toda semana ”, diz Zhirovetskiy, presidente da Adeptcore.

Como um gerente corporativo de TI, ajuste essa filosofia de atendimento. Reunir regularmente novos funcionários em potencial e partes interessadas na empresa trará dividendos a longo prazo.

  1. Atuar como tomador de pedidos para o negócio

Como gerente de TI, como você deve responder quando um gerente ou executivo de outra unidade solicita uma nova tecnologia? A maneira como você lida com esses pedidos moldará seu sucesso.

Para Davenport, os gerentes de TI precisam fazer dos resultados de negócios o seu foco. “Os gerentes de TI precisam sempre se concentrar em agregar valor ao negócio e não apenas em ser um tirador de pedidos. Isso significa ser capaz de compreender verdadeiramente a estratégia de negócios e também ser capaz de traduzir com sucesso essa estratégia em resultados significativos. Em outras palavras, concentre-se nos resultados de negócios e não nas atividades e tarefas detalhadas de TI para que isso aconteça. Embora sejam importantes, não é mais sua função principal e pode levar ao insucesso e, em última instância, ao fracasso ”, explica ele.

Durante anos, os líderes de TI buscaram ir além de sua percepção como tomadores de pedidos. Por que as encomendas da empresa são um problema? Se um vice-presidente de vendas assume que “precisamos de um novo aplicativo” e a TI simplesmente o constrói, os recursos da empresa podem ser desperdiçados porque os gerentes de TI não pesquisaram outras alternativas.   

  1. Não definir indicadores de desempenho semanais

Na tecnologia, lidamos com projetos que geralmente levam semanas ou meses para serem desenvolvidos. A linha do tempo é ainda maior quando se trabalha com sistemas legados. Estes grandes projetos podem ser desmotivadores a curto prazo porque a linha de chegada está longe. Parte da resposta estaria na definição de parâmetros para uma semana produtiva, mesmo que um projeto significativo ainda não tenha sido concluído.

“Eu mantenho um quadro Kanban no meu escritório”, diz Zucker, do Project Management Essentials. “Meço o número de itens que preenchi a cada semana e meço minha produtividade com base no número de itens que terminam a coluna da semana concluídos. Usando o Kanban e limitando o número de itens em que trabalho, sou mais produtivo. Ao visualizar o trabalho e os itens bloqueados ou aguardando entrada de outra pessoa, acompanho tudo o que está em andamento. ”

A chave para a abordagem de Zucker é “limitar o número de itens em que trabalho”.  A chave está em ter um portfólio de ganhos a curto e longo prazo.

  1. Não conseguir equilibrar a produtividade a curto e longo prazo

No trabalho, sua equipe quer a satisfação das vitórias. Desenvolvedores e outros profissionais acabam se concentrando em tarefas urgentes de curto prazo, que fornecem uma sensação de satisfação rápida, mas que não costumam mover os ponteiros da estratégia.

“Quando trabalhei em uma nova implementação de tecnologia para um cliente, dois funcionários do cliente foram treinados na ferramenta implementada. Um deles foi completamente engajado em alguns meses, realizando mudanças diárias na configuração.  O outro, depois de um ano ou mais, mal havia conseguido fazê-lo. A experiência anterior e o papel era o mesmo, mas é aqui que a motivação, o contexto e as habilidades entram em ação”, explica Felix Acosta, gerente sênior do grupo de consultoria CIO da KPMH Canada.

  1. Não ajustar as estimativas do projeto

Saber quando desafiar as estimativas de trabalho de sua equipe é uma habilidade crítica de gerenciamento de TI. Desafie com muita frequência e sua equipe pode achar que você não confia nela. Não os desafie e você pode fazer promessas irreais à sua liderança sênior. Jason Swett, um consultor de engenharia e criador do CodeWithJason.com, aprendeu esta lição da maneira mais difícil:

“Em 2015, trabalhei em uma agência onde estávamos construindo uma plataforma de treinamento de vendas para uma empresa de tecnologia bem conhecida. Antes do meu envolvimento, a agência encarregou os engenheiros juniores de trabalhos críticos. Seis meses se passaram e a agência não tinha nenhum produto para mostrar ao cliente. Algumas semanas antes do prazo, discutimos se poderíamos cumprir o prazo. Eu era o único que apontou que tínhamos meses, não semanas, de trabalho a fazer. Apesar do meu aviso, a agência decidiu ir em frente. Falharam. Não apenas o cliente demitiu a agência, mas o cliente foi deixado na mão em um projeto importante ”, explica Swett.

Evitar esse problema exige uma combinação de confiança e saber as perguntas certas a serem feitas. Swett sugere usar as seguintes perguntas: Estamos estimando muito de uma vez? Se uma tarefa é estimada em uma semana ou mais, isso é um sinal de que o trabalho precisa ser dividido em tarefas menores, cada uma das quais deve ser determinada separadamente. Somos otimistas demais? A resposta geralmente é sim, ele explica.

  1. Se concentrar nas métricas erradas

Completar um grande número de tarefas é tudo o que importa, certo? Se esse esforço é aplicado às métricas erradas, a chamada produtividade não leva a lugar algum.

“Em TI, é importante se perguntar como você mede a produtividade”, diz Acosta. “Algumas das possibilidades incluem o envio de novo código, disponibilidade de infraestrutura, o número de horas trabalhadas por sua equipe por ingresso. O problema com todas essas métricas é que elas estão muito mal alinhadas com coisas como receita ou lucratividade, então existe uma arte para gerenciar TI em qualquer organização ”.

Fonte: CIO

Autor: Bruce Harpham, CIO/EUA

Byadmin_rs

Não se apresse em implantar 5G se você quiser segurança em IoT

Falhas comuns em redes 2G, 3G e 4G podem se repetir em redes 5G, diz agência de segurança de TI da União Europeia

As falhas de segurança existentes nas redes móveis atuais também poderão estra presentes nas redes 5G, alertou a European Union Agency for Network and Information Security, ENISA.

Isso é uma má notícia para a Internet das Coisas, onde milhões de dispositivos inseguros estão sendo conectados a redes móveis sem que se pense adequadamente na autenticação e na criptografia das comunicações.

O perigo são as falhas conhecidas no SS7 e no Diameter, protocolos de sinalização usados nas redes 2G, 3G e 4G e que também podem ser incorporados às redes 5G, permitindo que o tráfego seja interceptado ou falsificado, e informações de localização sejam interceptadas, disse a ENISA em um relatório publicado na última quinta-feira, 29/03.

“Há um certo risco de se repetir a história” com a mudança para o 5G, diz o relatório, acrescentando que a capacidade das redes 5G de suportar mais usuários e mais largura de banda aumenta o perigo.

Os atacantes podem explorar o protocolo de sinalização SS7 usado em redes 2G e 3G para interceptar ou desviar mensagens de texto enviadas via SMS. Isso não seria tão ruim se significasse que o invasor sabia que seu amigo seria “CU L8R” – mas muitas organizações usam a autenticação de dois fatores SMS, supondo que apenas o proprietário de um telefone verá uma mensagem enviada para ele.

Esta é uma suposição arriscada: como observa a ENISA, vários bancos alemães viram as contas dos clientes atacadas após senhas únicas móveis terem sido enviadas via SMS.

Pesquisadores também demonstraram ataques de negação de serviço em redes 4G usando o protocolo de sinalização Diameter, permitindo que os atacantes  desconectassem temporariamente ou permanentemente o celular de um alvo da rede.

Esses ataques provavelmente serão apenas o começo. “Nossa trabalho focou no tratamento de ataques SS7 e Diameter, que são apenas uma pequena parte dos protocolos”, disse a ENISA. “Espera-se que novas vulnerabilidades sejam descobertas.”

Mesmo onde foram descobertas falhas e correções doram propostas, pouco mudou, reclamou a ENISA. “Várias propostas para tornar mais seguro o uso de  SS7 e Diameter nunca foram adotadas pela indústria (MAPsec, TCAPsec, Diameter sobre IPsec, Diameter sobre SCTP / DTLS)”.

As redes 5G usam outros protocolos além ou em vez de SS7 e Diameter, mas isso não põe fim ao problema. O uso de protocolos de Internet comuns, como HTTP, TLS e REST API em redes 5G, significa que, quando vulnerabilidades nesses protocolos são descobertas, as ferramentas de exploits e testes de penetração são prontamente transferíveis para as redes móveis também.

“Isso implica que o período de carência entre a descoberta de vulnerabilidades e a exploração real se tornará muito mais curto em comparação com o SS7 e o Diameter”, disse a ENISA.

A ENISA está preocupada com o fato das operadoras de rede já estarem falando em implementações 5G, sem que os organismos de normalização tenham  conseguido resolver todos os problemas de segurança. Isto pode acabar por colocar a Europa, onde a implementação do 5G está atrasada, à frente dos EUA e de alguns países asiáticos, que falam em oferecer serviços comerciais 5G

A ENISA quer que leis e regulamentos sejam alterados para que os operadores de rede sejam obrigados a proteger os seus sistemas de sinalização – em vez de impedidos, como hoje. Também sugere que o financiamento do governo poderia ser alocado para melhorar a segurança dos sistemas de sinalização.

Este não é apenas um assunto da UE, alertou: a falta de segurança em redes de outras partes do mundo pode fornecer uma maneira de atacar as redes correspondentes na Europa – ou vice-versa.

Autor: Peter Sayer, IT World/EUA

Fonte: CIO

Byadmin_rs

Indústria 4.0 e IOT: uma transformação muito mais que digital

Estamos diante, antes de tudo, de uma questão estratégica, por refletir o modo como a empresa “passará a pensar”

A informatização e o alto nível de conectividade, que juntos dão origem ao conceito de IOT (Internet das Coisas), estão cada vez mais em pauta em todos os segmentos da economia. E não é diferente na indústria, setor no qual são crescentes os burburinhos em relação ao que é a Indústria 4.0 e como ela impacta no dia a dia das empresas e em seus processos fabris.

O termo indústria 4.0 nasceu na Alemanha e contempla medidas que visam aumentar e recuperar a competitividade industrial, usando como meio a aplicação de tecnologias, como a IOT, no chão de fábrica. Porém, não estamos falando de uma implantação propriamente dita, mas de uma jornada para melhoria da produtividade, sempre tirando proveito dos benefícios que o mundo digital pode trazer. Em minha visão, não se trata de um pacote que se compra, mas sim de um conceito bastante amplo para aplicar tudo que o “mundo digital” pode oferecer ao “chão de fábrica”. E isso, sem dúvida, envolve uma grande mudança de paradigma que, assim como tudo, tem prós e contras.

Primeiramente, a IOT e a transformação digital criam uma necessidade ainda maior de garantir que todas as informações relacionadas à produção estejam protegidas e não extrapolem barreiras, indo além de quem pode visualizá-las. Fora as questões de espionagem industrial, o cuidado deve ser redobrado quando ingressamos no mundo digital e na indústria 4.0. Códigos maliciosos, cavalos de troia e outras ameaças veladas podem mudar a ordem de produção e até parar máquinas. Se isso já é desastroso hoje, imaginemos em um cenário 100% conectado, no qual qualquer falha de comunicação pode causar uma desorganização geral, atrasos em entregas, mudanças de rotas e muitos outros problemas. Por isso, esse cenário requer a adoção de controles específicos. 

Outro ponto importante é que, ao mesmo tempo em os ativos digitais já estão sendo reconhecidos por sua relevância para os negócios, eles ainda são tratados em muitas companhias como caixas pretas, ou seja, ainda predomina o desconhecimento acerca do real valor deste patrimônio. Assim, poucos ativos estão sob uma gestão mais organizada, o que demanda, de certa forma, uma mudança de comportamento por parte dos gestores, mesmo aqueles que não estão ligados diretamente à tecnologia.

Além disso, a indústria 4.0 também envolve desafios relacionados à gestão dos recursos humanos, pois as competências terão que estar alinhadas com o uso de Big Data, Robôs Autônomos, Simulação, Integração de Sistemas, IoT, Segurança Cibernética, Computação em Nuvem, Manufatura Aditiva ( impressão 3D), Realidade Aumentada e outros conceitos que passarão a ser largamente utilizados nos próximos anos. Inclusive, uma pesquisa da McKinsey apontou justamente isto: que o desafio nesse cenário todo é de caráter Cultural e de comportamento. Afinal, são pessoas que decidem e influenciam a adoção de novas tecnologias.

Mas, e o Brasil? Conquanto seja difícil fazer comparações, a situação por aqui em termos de competitividade ancorada pela tecnologia, mesmo em se tratando do maior mercado da América Latina e Caribe, não é das melhores, o que fica evidente noThe Global Competetiveness Report 2016–2017 – World Economic Forum.

Desta forma, para avançar nessa jornada, o primeiro passo para tornar um processo digital é “desmaterializá-lo” (acho que este termo ainda não consta em dicionários, mas gosto de usar essa palavra), ou seja, tirar suas características físicas e excluir tudo o que impede o crescimento exponencial, característico do “mundo digital”. E para isso, é preciso estudar o processo e encontrar formas de automatizá-lo e até mesmo de simplificá-lo. A partir daí, todos os componentes do processo passam a fluir muito rápido, tanto a circulação de documentos como a obtenção de informações sobre o processo para uso em Analytics, Big Data, entre outros. E nesse ponto, emergem benefícios, como rapidez na execução e controle nas variáveis do processo, como identificação de melhorias a partir dos dados gerados e a possibilidade analisar tudo o que acontece no seu ambiente fabril com base nessas informações.

É todo esse embasamento analítico que concede à indústria 4.0 o poder de abranger e ingressar em mercados até então inéditos e vender para outros países. As necessidades dos clientes ficam muito mais evidentes e também podem ser muito melhor atendidas. Quebra-se um pouco o conceito de produtos fechados e de unidades de manutenção de estoque (SKU, sigla em inglês) e tudo se volta às especificidades. A produção pode ser mais diversificada, as vendas mais consultivas e flexíveis e as respostas mais rápidas, respondendo a tal jornada do cliente. Será tudo isso também que preparará as empresas para atender o imediatismo dos clientes das gerações X e Y que estão vindo por aí, afinal são eles os futuros compradores. Isto inclui as empresas B2B. E, por último, este cenário permite aprimorar o desempenho dos processos internos, com menos pessoas e maior velocidade.

Diante de tudo isso, o que fica evidente é que a indústria 4.0, antes de tudo, é uma questão estratégica – por refletir o modo como a empresa “passará a pensar” e, assim sendo, não pode ser atribuída exclusivamente à direção de tecnologia das organizações e ao emprego da IOT, por exemplo. Temos aí uma transformação muito mais do que digital. Ainda há muito que evoluir.

Fonte: CIO

Autor: (*) Walter Sanches é superintendente de TI da Termomecanica

Byadmin_rs

Meta da Agenda Brasileira para a Indústria 4.0 é de longo prazo

Intenção é fazer com que 18% das empresas tenham concluído suas jornadas para o modelo digital em até 20 anos

O governo federal, por meio da Agência Brasileira de Desenvolvimento Industrial (ABDI) e do Ministério da Indústria, Comércio Exterior e Serviços (MDIC), aproveitou o Fórum Econômico Mundial na América Latina, que acontece nesta semana, em São Paulo, para apresentar o que eles chamam de Agenda Brasileira para a Indústria 4.0. Trata-se de uma série de medidas, recomendações para transformar o parque industrial brasileiro nas próximas décadas. Entre os objetivos, como compartilhou o presidente da ABDI Luiz Augusto Ferreira é fazer com que 18% das empresas tenham concluído suas jornadas para o modelo 4.0 em até 20 anos.

O tempo é longo, mas, como o próprio Ferreira explicou, o Brasil tem realidades muito distintas e empresas em diferentes momentos que terão, consequentemente, diferentes jornadas para percorrer rumo à transformação. “A primeira parte da política é o diagnóstico e temos dificuldade nisso pela dimensão do Brasil e com muita gente trabalhando com conceito de commodity, e é esse diagnóstico que nos levará à jornada do 4.0, porque temos coisas que estão em 2.0 e precisam ir para 3.0, 3.0 para 4.0, tem uma jornada, uma escada de evolução.”

O País conta hoje com algumas iniciativas encabeçadas pelo próprio governo federal e seus mais variados órgãos, como a Política Nacional de Internet das Coisas, lançada pelo BNDES, e outra de Transformação Digital, liderada pelo Ministério da Ciência, Tecnologia, Inovação e Comunicação (MCTIC), o que mostra, apesar dos esforços da Agenda para Indústria 4.0 em reunir diversas frentes, existir um desafio de interlocução. Mais que isso, o País assiste a um governo que se encerra em dezembro, que pouco provavelmente fará um sucessor, levando a questionar o grau de sobrevivência que terá tal iniciativa a partir de janeiro de 2019.

Para Ferreira, no entanto, o fim do governo de Michel Temer em dezembro nem de longe é visto como ameaça para a Agenda. “Sou do setor de startups, vim emprestado para o setor público e entendo isso. O que posso dizer é que a política de indústria 4.0 e a de IoT são politicas de Estado e não de governo e é isso o que todos defendem. Esse documento será a base para que os próximos governo não comecem do zero. O diagnóstico, por exemplo, poderá ser feito com dados no site, tirando isso, temos no MDIC corpo técnico que não foi mexido e eles permanecem”, argumentou.

Dinheiro disponível
Necessária para a estratégia do Brasil, que nos últimos anos viu seu parque industrial perder força e competitividade no mundo pela falta de investimento e fomento, o documento trata do novo passando por diversas etapas, sendo a primeira delas o diagnóstico, como mencionou Ferreira, e que é fundamental para entender a real situação e o tipo de ação que será necessária para a jornada da transformação. Além disso, existem ações de fomento, legislação, test beds e alianças globais para que o Brasil entre na rota da cadeia global de produção.

“Não é reindustrialização, mas readequação do parque para estar na cadeia global de valor. Eficiência energética pode ser uma porta de entrada para essa nova indústria no Brasil. Porque só ela reduz em até 30% o custo empresarial”, complementou.

No campo do fomento, apenas o Banco Nacional de Desenvolvimento Econômico e Social (BNDES), como afirmou o presidente Paulo Rabello de Castro, tem uma linha atual de R$ 5 bilhões, mas que poderá ser ampliada. “A boa notícia é que não temos freio para aquilo que é prioritário. O banco está preparado para desafios orçamentários bem maior”, pontuou, reforçando que inovação sempre esteve na pauta do banco e que no documento Visão 2035 da instituição, que fala de um Brasil desenvolvido até 2035, tecnologia, inovação e, sobretudo, o conceito de internet das coisas (IoT) estão mais que presentes.

Financiamento, aliás, parece que não será um problema, já que, além do BNDES, a Finep está com linhas destinadas a essa agenda, por meio de fundos reembolsáveis, num montante que soma R$ 7 bilhões, sem contar os valores contraídos com o Bando Interamericano de Desenvolvimento (BID).

No que diz respeito à desoneração, o atual ministro da Indústria, Comércio Exterior e Serviços, Marcos Jorge de Lima, lembrou que o País tem buscado se inspirar em países como a Alemanha que estão na vanguarda da indústria 4.0 e que, para acelerar esse movimento, já reduziu a zero a alíquota para importação de robôs colaborativos, algo essencial no redesenho das empresas e parte importante do processo de automação e ganho de eficiência.

As premissas da Agenda da Indústria 4.0, basicamente são: fomentar iniciativas que facilitem o investimento privado; propor agenda centrada no industrial, conectando instrumentos de apoio existentes, levando maior volume de recursos para a ponta; testar, avaliar, debater e construir consensos por meio da validação de projetos-piloto, medidas experimentais, operando com neutralidade tecnológica; por fim, equilibrar medidas de apoio para pequenas e médias empresas com grandes companhias.

Fonte: CIO

Autor: Vitor Cavalcanti

 

Byadmin_rs

Falhas no eCommerce: a culpa é mesmo da tecnologia?

O planejamento das ferramentas e o seu uso são coisas distintas, que dependem da capacitação técnica de cada indivíduo

Ano após ano o varejo eletrônico quebra recordes de faturamento e alcance. Para se ter uma ideia, o faturamento do setor em 2017 foi de R$ 59,9 bilhões, crescendo 12% em relação ao ano anterior. Já para 2018, a estimativa é de alta de 15%, atingindo o total de R$ 69 bilhões, segundo dados da Associação Brasileira de Comércio Eletrônico (ABComm). Após apresentar quedas nos últimos três anos, o varejo físico registrou aumento de 6% em 2017, segundo dados da Associação Brasileira de Lojistas de Shopping (Alshop).

Esse período de bons ventos vai ao encontro do momento da tecnologia, com soluções que evoluem e se tornam parte do cotidiano das empresas, que conseguem impactar mais pessoas com medidas inovadoras, mas que estão suscetíveis a falhas e erros humanos, que podem colocar em xeque toda a operação.

A tecnologia, ao contrário de como é vista por muitos dos gestores, deve ter foco no cliente e na performance, mas não significa que seja o único segredo do sucesso (ou do fracasso). Esse, para ser atingido, depende de todo um planejamento estratégico e da definição de processos para fazer com que as inovações funcionem de acordo com o seu propósito. Imagine um escopo de trabalho feito às pressas, sem entendimento dos efeitos colaterais, documentação correta, e acompanhamento. Provavelmente resultará no uso de uma tecnologias não adequada, gerando críticas que poderiam ser evitadas. E por incrível que pareça a culpa vira-se toda para a “cria” e não para o “criador”.

Fica fácil criticar a tecnologia quando as áreas responsáveis aceitam demandas sem questionar, de “cabeça baixa”. Isso acarreta em um novo risco, pois quem encomenda uma ferramenta ou solução pensa apenas no produto final, e quando a equipe que desenvolve não tem conhecimento do business, surpresas acontecemAgora, em um cenário desse tipo, existe algo mais previsível que uma grande M?

O planejamento das ferramentas e o seu uso são coisas distintas, que dependem da capacitação técnica de cada indivíduo. Quando um usuário não adota uma tecnologia da maneira correta o risco é da empresa, que pode ser amplamente prejudicada, devido a impossibilidade de identificar os erros cometidos. Um exemplo é quando ocorre a alteração dos preços dos produtos por um erro de digitação. Diversas redes de varejo já tiveram itens de R$ 5 mil anunciados e vendidos por R$ 500, ou por menos, com prejuízos monetários de margem e incalculáveis de imagem perante o público off line e online.

E por que isso acontece? Por falha de sistema ou da falta de cuidados com os processos que o sistema deveria controlar? Arrisco dizer que na grande maioria dos casos a resposta é a segunda. Muito provavelmente a tecnologia sempre rodou com altos avanços de precificação automática, em lote, por API, mas não se pensou na segurança do input de dados. Quando há negligência operacional e a falta de preparo de determinada área, um mesmo login pode ser utilizado por vários usuários, o que impossibilita o rastreamento das ações individuais, que são as responsáveis tanto pelo sucesso quanto pelo fracasso de uma organização. A segurança e o acesso se tornam importantes questões quando o gestor não utiliza as ferramentas da melhor forma.

A tecnologia é essencial no desenvolvimento de uma loja eletrônica, funcionando como sua base. Porém, os erros decorrentes de seu uso ficam amplamente expostos, sendo que há um agravante: eCommerce: nicas que podem interferir na performance do e-commerce.

Além do erro humano, existem também as limitações técnicas de cada ferramenta e solução, sendo que todas elas devem estar muito bem integradas entre si para garantir a comunicação em todas as etapas, fazendo com que as demandas sejam pensadas de acordo com os objetivos do negócio, exigindo o mínimo de intervenção humana, que atualmente é a maior responsável pelas falhas que são apontadas como da tecnologia.

Fonte: CIO
Autor: Fábio Mori