Notícias em destaque

Byadmin_rs

Conexões físicas dão solidez à nuvem

A continuidade dos negócios digitais depende de uma estrutura de cabeamento – seja cobre, seja fibra – que ofereça uma visão gerencial do que realmente está ativo e funcionando no data center

A despeito da imagem que transmite, a nuvem tem uma base sólida: equipamentos alojados em data centers instalados ao redor do mundo. O centro da nuvem é o data center e ele está em constante expansão. Nada acontecerá, no entanto, se, ainda na fase do projeto deste ambiente não for equacionado um elemento fundamental e nada abstrato: o cabeamento. Com mais de 1 exabyte de dados armazenados na nuvem, as conexões precisam ser de alta velocidade, confiáveis e fidedignas para permitir que os recursos computacionais sejam facilmente distribuídos. O conceito que rege essa infraestrutura é o de cabeamento estruturado inteligente e gerenciável. O protagonismo dessa tecnologia explica-se pela lógica de negócios. Sem a adoção da correta política de cabeamento, simplesmente não há como garantir que a nuvem ofereça uma User Experience (UX) de alto nível.

A continuidade dos negócios digitais depende de uma estrutura de cabeamento – seja cobre, seja fibra – que ofereça uma visão gerencialdo que realmente está ativo e funcionando no data center. É aqui que entram em cena soluções de cabeamento estruturado inteligentes com monitoramento proativo. Torna-se possível, por exemplo, ter visibilidade sobre fatores essenciais como o status de portas de equipamentos e conexões físicas.  Outro ganho concreto é a capacidade de ativação ou desativação remota de pontos de usuários. É comum, ainda, que as novas ofertas sejam adquiridas “As a Service”, sem que toda a infraestrutura de cabeamento existente tenha de ser substituída na sua totalidade. Trata-se de uma oferta mensalisada, que evita a necessidade de se investir capital na renovação desta estrutura.

Na era da computação em nuvem, a saída para as conexões de alta performance é a fibra óptica.

Estão surgindo fibras transportando terabits — um trilhão de bits — por segundo. Essa enorme quantidade de informação passa, à velocidade da luz, por um filamento de fibra com o diâmetro menor que um fio de cabelo humano. Sim, ainda há uma maioria de equipamentos no data center conectados por cabos de cobre. A tendência de substituição desses segmentos por fibra é, no entanto, irreversível. Há razões técnicas e de mercado para isso. Os cabos de cobre têm uma limitação de banda e de distância – o máximo que atingem é 40 Gigabits/segundo. A fibra óptica, por outro lado, atinge velocidades muito maiores.

A partir dos anos 2000 essa tecnologia evoluiu e surgiram as Fibras Multimodo OM2, OM3, OM4 – o mercado fala, agora, de fibras OM5 de Banda Larga. Essas tecnologias permitem transmissões 40G e 100G por apenas 1 par de fibras. A partir daí, potencializa-se a infraestrutura paralela e chega-se a transmissões de terabit em 400G de 4 pares. Outra modalidade desta oferta, a fibra óptica monomodo é para ser usada em grandes distâncias – suas vantagens com relação à largura de banda garantem maiores velocidades na transmissão de informações. Aos poucos, a fibra óptica OM4 tornou-se padrão nos backbones das principais empresas brasileiras.

Outro fator importante para a disseminação da fibra óptica é o custo, que caiu cerca de 60%.

O avanço da tecnologia e a disponibilidade cada vez maior de portas de equipamentos com taxas de transmissões mais altas fizeram com que os custos das fibras ópticas e seus componentes caíssem. Hoje, esse valor é mais baixo do que os desembolsos necessários para se trabalhar com cabos de cobre.

Isso aumentou a adesão do mercado a essa tecnologia. Mas, ainda assim, os cabos de cobre seguem ocupando seu próprio espaço. Enquanto os novos projetos de cabeamento de data center têm 80% compostos por soluções em fibra óptica e 20% de cabos de cobre, nos ambientes corporativos a proporção é o oposto disso: 80% de cabos de cobre e 20% de fibra óptica ou até maiores.

Na verdade, a tecnologia que vai aos poucos substituir os cabos de cobre não é a fibra óptica e sim a conexão WiFi. Caminhamos aceleradamente para um quadro em que o cabo de cobre será usado em poucas conexões: por exemplo, entre os equipamentos de transmissão (Servidores, Roteadores e Switches) e a antena Wi-Fi. Links wireless irão ocupar o espaço dos cabos de cobre na conexão entre os nós centrais e as estações de trabalho dos colaboradores.

Seja um cabeamento de fibra óptica, cobre ou antenas WiFi, a conexão tem de ser sólida para que a computação em nuvem também seja.

Dentro deste contexto, é fundamental selecionar parceiros de infraestrutura com longa quilometragem e bagagem técnica. Sai na frente o integrador de soluções que tenha um currículo de pelo menos 30.000 pontos físicos instalados. Ganha destaque, também, a empresa que trabalha com as principais marcas de cabeamento (tanto cobre como fibra óptica) – caso da Commscope, Furukawa, Nexans e Panduit. Outra credencial que não pode faltar é a apresentação de todos os treinamentos e certificações que se exige para projetar, implementar e gerenciar (manutenção) a infraestrutura com a máxima qualidade e agilidade.

A seleção deste fornecedor deve passar, também, por sua estratégia de atuação num país do tamanho do Brasil. Se a empresa de infraestrutura não contar com equipes próprias fora do eixo São Paulo, Rio de Janeiro e Brasília, deve apresentar, em sua proposta, fornecedores locais de serviços igualmente treinados e certificados. Não deixe de exigir, também, ao final do projeto, certificados de garantia estendida sobre essa infraestrutura tão crítica.

Essa lista de exigências atesta o amadurecimento do mercado de serviços de infraestrutura – simplesmente não há mais lugar para a improvisação.

Em plena era da transformação digital, o profissional de infraestrutura tem de ter uma sólida formação e contar com metodologias específicas para acelerar, com a máxima qualidade e consistência, a fase de implementação do cabeamento. Sem a base correta – seja física, seja wireless – a economia digital não prospera.  

Fonte: CIO
Autor: Marcos Santos

Byadmin_rs

Receita pode prorrogar eSocial para MPEs, afirma especialista

Se nada for mudado, as MPEs terão que aderir ao sistema até julho

A Receita Federal (RF) pode prorrogar o prazo para a adesão das micro e pequenas empresas (MPEs) no eSocial. É o que diz Ana Paula Locoselli, assessora jurídica da FecomercioSP, que teve contato com representantes da RF. “Eles já estão trabalhando com essa hipóteses [de prorrogação] ”, afirma ela. “Isso porque já estamos na metade de maio e ainda não foi disponibilizado o programa [doeSocial] para as companhias menores”. Se nada for mudado, as MPEs terão que aderir ao sistema até julho.

Segundo a entrevistada, é complicada demais a versão do eSocial utilizada pelas empresas de grandes porte, que integraram o programa no começo do ano. “Se o mesmo modelo for obrigatório para as companhias menores, é provável que a adesão seja problemática”, diz Ana Paula. Ela ressalta que até as firmas maiores estão enfrentando dificuldades para se adaptar ao eSocial. Um dos problemas, diz ela, está no cadastro dos dados trabalhistas dos funcionários.

Outro ponto que preocupa os especialistas é o excesso de demanda sobre consultores de tecnologia, bastante requisitados para fazer a implementação do sistema. “Hoje essas firmas de consultoria não têm equipe técnica suficiente para dar suporte e fazer as implementações necessárias em um mês e meio”, diz Márcio Massao Shimomoto, presidente do Sindicato das Empresas de Contabilidade e de Assessoramento no Estado de São Paulo (Sescon-SP).

Ele também chama atenção para o prazo diferenciado estabelecido para a adesão de empresas públicas. “O governo já deveria ter entrado no eSocial. Não faz sentido deixar as [empresas] públicas para o final, só em janeiro do ano que vem”, afirma. Ana Paula segue a mesma linha. “Quando o governo diz que precisa de mais tempo para entrar no sistema, ele deveria lembrar que o setor privado está passando pelas mesas dificuldades”. Na opinião da entrevistada, o prazo para as MPEs deveria ser estendido até janeiro de 2019.

Por esse motivo, a FecomercioSP informou ontem (14) que solicitou ao governo federal a prorrogação do prazo para que microempresas, micro empreendedores individuais, e empresas de pequeno porte apresentem os dados de seus empregados no eSocial. Foram enviados ofícios para representantes da Receita Federal, Ministérios da Fazenda, do Trabalho e do Desenvolvimento Social, além de outros órgãos competentes.

Mudanças

O eSocial é uma plataforma eletrônica onde os empresários registram os dados trabalhistas, tributários, fiscais e previdenciários dos funcionários. Para especialistas, o programa é bom, pois traz mais transparência e segurança aos trabalhadores, mas sua implementação é problemática.

Portal Contábeis

Autor: Renato Ghelfi
Fonte: DCI – SP 

Byadmin_rs

Como proteger a nuvem? Novos dados apontam um caminho

Veja os conselhos sobre as ferramentas, informações e estrutura organizacional necessárias para executar uma estratégia de segurança na nuvem bem-sucedida

 A marcha em direção à nuvem de dados e serviços fez com que muitas empresas repensassem sua abordagem à segurança cibernética. Eles precisam de uma estratégia de segurança na nuvem? O que há de diferente em uma estratégia de segurança na nuvem?

Pesquisas recentes esclareceram como as estratégias de segurança estão mudando e, mais importante, como elas devem mudar.

Colocar mais infraestrutura de TI na nuvem é, de certa forma, mais seguro do que tê-la em casa. Por exemplo, você pode estar razoavelmente seguro de que o sistema está executando a versão mais recente com as correções corretas no lugar. Os provedores de serviços de nuvem também estão criando novos recursos, como o uso de linguagem de máquina para detecção de anomalias. No entanto, também apresenta novos riscos, alguns dos quais são o resultado de entender mal como gerenciar a segurança na nuvem.

É importante saber como a estratégia de TI em nuvem de uma empresa – seja ela híbrida, privada ou pública – afeta sua estratégia de segurança cibernética e a execução tática dessa estratégia.

Qual é o risco de segurança na nuvem? 
Os dados do provedor de segurança de nuvem Alert Logic mostram a natureza e o volume de riscos para cada forma de ambiente de nuvem, em comparação a um data center on-premise. Durante 18 meses, a empresa analisou 147 petabytes de dados de mais de 3.800 clientes para quantificar e categorizar incidentes de segurança. Durante esse período, identificou mais de 2,2 milhões de incidentes de segurança verdadeiramente positivos. As principais descobertas incluem:

1 – Os ambientes de nuvem híbrida apresentaram o maior número médio de incidentes por cliente (977), seguidos pela nuvem privada hospedada (684), pelo data center no local (612) e pela nuvem pública (405). De longe, o tipo mais comum de incidente foi um ataque de aplicativo da Web (75%), seguido por ataque de força bruta (16%), reconhecimento (5%) e ransomware do lado do servidor (2%).

2 – Os vetores mais comuns para ataques a aplicativos da Web foram o SQL (47,74%), o Joomla (26,11%), o Apache Struts (10,11%) e o Magento (6,98%).

3 – O WordPress foi o alvo de força bruta mais comum, com 41%, seguido pelo MS SQL, com 19%.

Seja um ambiente de nuvem pública, privada ou híbrida, as ameaças de aplicativos da Web são dominantes.

O que é diferente entre eles é o nível de risco que você enfrenta. “Nossa capacidade de proteger efetivamente a nuvem pública também é maior, porque vemos uma melhor relação sinal-ruído e perseguimos menos ataques ruidosos”, diz Misha Govshteyn, co-fundador da Alert Logic. “Quando vemos incidentes de segurança em ambientes de nuvem pública, sabemos que temos que prestar atenção, porque eles são geralmente mais silenciosos.”

Os dados mostram que algumas plataformas são mais vulneráveis que outras. “Isso aumenta sua superfície de ataque, apesar de seus melhores esforços”, diz Govshteyn. Como exemplo, ele observa que “apesar da crença popular”, a pilha LAMP tem sido muito mais vulnerável do que a pilha de aplicativos baseada em Microsoft. Ele também vê aplicativos PHP como um hotspot.

“Sistemas de gerenciamento de conteúdo, especialmente WordPress, Joomla e Django, são usados como plataformas para aplicativos da web muito mais do que a maioria das pessoas percebe e tem inúmeras vulnerabilidades”, diz Govshteyn. “É possível manter esses sistemas seguros, mas somente se você entender quais frameworks e plataformas Web suas equipes de desenvolvimento tendem a usar. A maioria das pessoas de segurança mal presta atenção a esses detalhes e toma decisões com base em suposições ruins. ”

Para minimizar o impacto das ameaças na nuvem, a Alert Logic tem três recomendações principais:

1 – Confie na aplicação da lista branca e bloqueie o acesso a programas desconhecidos. Isso inclui fazer avaliações de risco versus o valor de cada aplicativo usado na organização.

2 – Entenda seu próprio processo de patch e priorize a implantação de patches.

3 – Restrinja privilégios administrativos e de acesso com base nas tarefas atuais do usuário. Isso exigirá a manutenção de privilégios para aplicativos e sistemas operacionais atualizados.

Como proteger a nuvem 
De acordo com uma pesquisa realizada pela Vanson Bourne e patrocinada pelo  provedor de soluções de monitoramento de rede Gigamon, 73% dos entrevistados esperam que a maioria de suas cargas de trabalho de aplicativos esteja na nuvem pública ou privada. Ainda assim, 35% desses entrevistados esperam lidar com a segurança de rede exatamente da mesma maneira que fazem em suas operações locais. O restante, apesar de relutante em mudar, acredita que não tem escolha a não ser mudar sua estratégia de segurança para a nuvem.

É claro que nem toda empresa está migrando dados confidenciais ou críticos para a nuvem, portanto, para eles, há menos motivos para mudar a estratégia. No entanto, a maioria das empresas está migrando informações críticas e proprietárias da empresa (56%) ou ativos de marketing (53%). Quarenta e sete por cento esperam ter informações pessoalmente identificáveis na nuvem, o que tem implicações devido a novas regulamentações de privacidade, como o GDPR da UE .

As empresas devem se concentrar em três áreas principais para sua estratégia de segurança na nuvem, de acordo com Govshteyn:

1 – Ferramentas 
As ferramentas de segurança que você implanta em ambientes de nuvem devem ser nativas para a nuvem e capazes de proteger aplicativos da Web e cargas de trabalho na nuvem.

“As tecnologias de segurança formuladas para proteção de endpoint estão focadas em um conjunto de vetores de ataque pouco comuns na nuvem e estão mal equipados para lidar com as ameaças OWASP Top 10, que constituem 75% de todos os ataques na nuvem”, diz Govshteyn. Ele observa que as ameaças de terminal visam navegadores da Web e software cliente, enquanto ameaças de infraestrutura visam servidores e estruturas de aplicativos.

2 – Arquitetura
Defina sua arquitetura em torno dos benefícios de segurança e gerenciamento oferecidos pela nuvem, não da mesma arquitetura que você usa em seus data centers tradicionais. 

“Agora temos dados mostrando que os ambientes públicos puros permitem que as empresas tenham taxas de incidentes menores, mas isso só é possível se você usar os recursos de nuvem para projetar uma infraestrutura mais segura”, diz Govshteyn. 

Ele recomenda que você isole cada aplicativo ou micro-serviço em sua própria nuvem privada, o que reduz o raio de explosão de qualquer invasão. “Grandes violações, como o Yahoo, começaram com aplicativos da Web triviais como o vetor de entrada inicial, portanto, os aplicativos menos importantes geralmente se tornam seu maior problema”.

Além disso, não corrija vulnerabilidades em suas implantações de nuvem. Em vez disso, implante uma nova infraestrutura de nuvem executando o código mais recente e desative sua infraestrutura antiga. “Você só pode fazer isso se automatizar suas implantações, mas ganhará o nível de controle sobre sua infraestrutura que nunca conseguiria em data centers tradicionais”, diz Govshteyn.

3 – Pontos de conexão
Identifique pontos em que suas implantações de nuvem estão interconectadas a datacenters tradicionais que executam código herdado. “Essas provavelmente serão sua maior fonte de problemas, pois vemos uma tendência clara de que as implantações de nuvem híbrida tendem a ver a maioria dos incidentes de segurança”, diz ele.

Nem tudo sobre a estratégia de segurança existente precisa mudar para a nuvem. “Usar a mesma estratégia de segurança on-premise para a nuvem – por exemplo, inspeção profunda de conteúdo para análise forense e detecção de ameaças –  não é uma má ideia por si só. As empresas que buscam isso normalmente buscam a consistência entre suas arquiteturas de segurança para limitar as lacunas em sua postura de segurança ”, afirma Tom Clavel, gerente sênior de marketing de produto da Gigamon.

“O desafio é como eles têm acesso ao tráfego de rede para esse tipo de inspeção”, acrescenta Clavel. “Embora esses dados estejam prontamente disponíveis on-premise pelo uso de uma variedade de ferramentas e estratégias, eles não estão disponíveis na nuvem. Além disso, mesmo que tenham acesso ao tráfego, o backhauling das informações para as ferramentas locais de inspeção, sem a inteligência, é extremamente caro e contraproducente ”.

Os problemas de visibilidade da nuvem 
Uma reclamação que os entrevistados da Vanson Bourne tinham é que a nuvem pode criar pontos cegos dentro do cenário de segurança. No geral, metade disse que a nuvem pode “ocultar” informações que permitem identificar ameaças. Eles também disseram que, com a nuvem, também estão faltando informações sobre o que está sendo criptografado (48%), aplicativos inseguros ou tráfego (47%) ou validade de certificado SSL / TLS (35%).

Um ambiente de nuvem híbrida pode dificultar ainda mais a visibilidade, pois pode impedir que as equipes de segurança vejam onde os dados estão realmente armazenados, de acordo com 49% dos entrevistados da pesquisa. Dados em silos, alguns mantidos por operações de segurança e alguns por operações de rede, podem dificultar ainda mais sua localização, afirmaram 78% dos entrevistados.

Não são apenas dos dados que as equipes de segurança têm visibilidade limitada. Sessenta e sete por cento dos entrevistados da Vanson Bourne disseram que os pontos cegos da rede eram um obstáculo para protegerem sua organização. Para obter melhor visibilidade, Clavel recomenda primeiro identificar como você deseja organizar e implementar sua postura de segurança. “Está tudo dentro da nuvem ou estendido do local para a nuvem? Em ambos os casos, certifique-se de que a visibilidade generalizada do tráfego de rede do aplicativo esteja no centro da sua estratégia de segurança. Quanto mais você vê, mais você pode garantir ”, diz ele.

“Para atender às necessidades de visibilidade, identifique uma maneira de adquirir, agregar e otimizar o tráfego de rede para suas ferramentas de segurança, seja um sistema de detecção de intrusão (IDS), informações de segurança e gerenciamento de eventos (SIEM), forense, prevenção de perda de dados ( DLP), detecção avançada de ameaças (ATD) ou para todos eles concorrentemente ”, acrescenta Clavel. “Por fim, adicione procedimentos SecOps para automatizar a visibilidade e a segurança contra ameaças detectadas, mesmo com o aumento de sua cobertura na nuvem.”

Esses pontos cegos e pouca visibilidade das informações podem criar problemas de conformidade com o GDPR. Sessenta e seis por cento dos entrevistados dizem que a falta de visibilidade dificultará o cumprimento do GDPR. Apenas 59% acreditam que suas organizações estarão prontas para o GDPR até o prazo final de maio de 2018.

Políticas e práticas de segurança que não acompanham a adoção da nuvem 
De acordo com a edição 2018 do Relatório de Ameaças na Nuvem da Oracle e da KPMG, 87% das empresas têm agora uma estratégia cloud-first e 90% das empresas dizem que metade dos dados que possuem na nuvem é sensível. Embora essas empresas tenham adotado uma abordagem agressiva para adotar a nuvem, as práticas e políticas de segurança não parecem ter sido alcançadas, como mostram os dados do mesmo relatório, provenientes de uma pesquisa com 450 cibersegurança e profissionais de todo o mundo. Os entrevistados estavam claramente preocupados com a segurança na nuvem, mas a maioria não tomou medidas óbvias para reduzir o risco de ter dados confidenciais na nuvem.

Oito e dois por cento acham que seus funcionários não seguem os procedimentos de segurança na nuvem, mas 86% não conseguem coletar e analisar a maioria dos dados de eventos de segurança:

Apenas 38% dos entrevistados disseram que detectar e responder a incidentes de segurança na nuvem é o desafio número um de segurança cibernética. E só 41% possuem um arquiteto de segurança dedicado na nuvem.

Existem alguns sinais de que as empresas levarão a segurança na nuvem mais a sério no futuro próximo. A maioria dos entrevistados (84%) espera aumentar seu nível de automação de segurança e 89% esperam aumentar seus orçamentos de segurança cibernética no próximo ano.

Vai ajudar na aprendizagem automática? 
Provedores de serviços em nuvem estão trabalhando para melhorar a capacidade dos clientes de identificar e lidar com possíveis ameaças. A Amazon Web Services (AWS), por exemplo, anunciou dois serviços em 2017 que dependem de Machine Learning para proteger os ativos dos clientes.

Em agosto, a AWS anunciou seu serviço Macie , focado principalmente em conformidade com PCI, HIPAA e GDPR . Ele treina o conteúdo dos usuários nos buckets do Amazon S3 e alerta os clientes quando detecta atividades suspeitas. O AWS GuardDuty , anunciada em novembro, usa aprendizado de máquina para analisar o AWS CloudTrail, os logs de fluxo VPC e os registros de DNS da AWS. Como o Macie, o GuardDuty se concentra na detecção de anomalias para alertar os clientes sobre atividades suspeitas.

A eficácia do Machine Learning depende de modelos, que consistem em um algoritmo e dados de treinamento. O modelo é tão bom quanto os dados sobre os quais ele é treinado; qualquer evento que esteja fora dos dados no modelo provavelmente não será detectado por um serviço como o Macie ou o GuardDuty.

Dito isso, um provedor de segurança em nuvem como a AWS terá um conjunto de dados muito mais rico para funcionar do que qualquer cliente individual faria. A AWS tem visibilidade em toda a sua rede, facilitando muito o treinamento de seu modelo de Machine Learning sobre o que é normal e o que pode ser malicioso. No entanto, os clientes precisam entender que o Machine Learning não detectará ameaças que estejam fora dos dados de treinamento do modelo. Eles não podem confiar apenas em serviços como o Macie e o GuardDuty.

Quem é o proprietário da segurança na nuvem? 
Dado o que está em jogo, não é surpresa que 62% dos entrevistados tenham manifestado o desejo de que seus centros de operações de segurança (SOCs) controlem o tráfego de rede e os dados para garantir a proteção adequada em um ambiente de nuvem. Metade deles aceitaria o conhecimento do tráfego e dos dados da rede.

Obter controle ou mesmo visibilidade total pode ser um desafio para muitas organizações devido à estrutura dos grupos que gerenciam o ambiente de nuvem. Embora as operações de segurança sejam responsáveis pela segurança na nuvem em 69% das organizações dos entrevistados, operações na nuvem (54%) ou operações de rede também estão envolvidas. Isso resultou em confusão sobre quem está assumindo a liderança em segurança na nuvem e como as equipes devem colaborar. De fato, 48% dos entrevistados disseram que a falta de colaboração entre as equipes é o maior obstáculo para identificar e relatar uma violação.

“Frequentemente, as empresas dividem responsabilidades entre rede, segurança e nuvem”, diz Clavel. “Cada um tem orçamentos distintos, propriedade distinta e até mesmo ferramentas distintas para gerenciar essas áreas. Obter visibilidade da nuvem para protegê-la requer a quebra dos muros de comunicação entre essas três organizações. As mesmas ferramentas de segurança implantadas no local também poderão proteger a nuvem – portanto, as equipes de segurança e de nuvem precisam se comunicar”.

Que tipo de pessoa deve levar em consideração a segurança na nuvem da organização? Precisa ser alguém ou uma equipe com as habilidades certas e capacidade de se comprometer a longo prazo. “Encontre a pessoa ou a equipe capaz de avançar mais rapidamente para os novos paradigmas de segurança na nuvem e permita que eles criem sua estratégia de segurança pelos próximos três a cinco anos”, diz Govshteyn.

“Nos últimos anos, tende a ser a equipe de operações de TI ou uma equipe de segurança corporativa, mas há sempre um colaborador individual de nível de arquitetura ou uma equipe de segurança de nuvem dedicada no centro desse esforço. Essa nova geração de profissionais de segurança pode escrever código, gastar mais de 80% de seu tempo automatizando seus trabalhos e visualizar as equipes de desenvolvimento como seus pares, em vez de adversários ”, diz Govshteyn, acrescentando que em empresas de tecnologia a segurança às vezes é uma função de a equipe de engenharia.

Embora os conselhos de administração estejam tendo grande interesse em segurança atualmente, eles não ajudarão no nível do solo. “Na verdade, grande parte da tomada de decisão crítica quando se trata de segurança na nuvem hoje vem de tecnólogos capazes de acompanhar o ritmo acelerado de mudanças na nuvem pública”, diz ele.

Para complicar ainda mais a tarefa de proteger a nuvem para mais da metade (53%) dos entrevistados, está o fato de que suas organizações não implementaram uma estratégia ou estrutura de nuvem. Embora quase todas essas organizações planejem fazê-lo no futuro, não está claro quem está liderando essa iniciativa.

“As ferramentas de segurança e monitoramento também serão capazes de alavancar a mesma plataforma de entrega de segurança para maior flexibilidade – para que a rede, a segurança e a nuvem também concordem em compartilhar a responsabilidade da plataforma de entrega de segurança”, diz Clavel. “As empresas que consolidam suas atividades de segurança e monitoramento – como parte do SOC – ou pelo menos estabelecem orçamentos comuns e compartilham a propriedade de uma plataforma de entrega de segurança, são recompensadas com melhor flexibilidade, tomada de decisões mais rápida e segurança consistente no local e implantações em nuvem. ”

Fonte: CIO
Autor: Michael Nadeau

Byadmin_rs

SAP vai integrar Business One à plataforma de gestão escolar nacional

A SAP e a brasileira Techne, especializada em softwares para a área de educação,  fecharam acordo para integrar sistemas voltados ao setor de educação. Assim, o Lyceum, sistema da Techne para a gestão educacional de instituições de ensino básico e superior, contará com as funcionalidades do SAP Business One, que inclui processos de gestão financeira, contábil, comercial, estoque e operações e é amplamente utilizado na gestão de empresas no Brasil e no exterior.

Já o SAP Business One será customizado para a área de educação e virá embarcada e totalmente integrada ao Lyceum, para ampla utilização em todos os segmentos da educação.

O produto que vai combinar vantagens de ambos os sistemas deverá estar disponível até o mês de agosto de 2018. Com ele, a SAP espera ampliar presença no setor com o know how da Techne. O Lyceum é utilizado na gestão acadêmica de mais de 200 instituições de ensino públicas e privadas de diferentes portes.

Cerca de dois milhões de alunos de instituições como Insper, FGV, FAAP, Unip, Univap, Universidade Positivo, Rede de Colégios Maristas do Centro-Norte, Colégio Miguel de Cervantes, entre outros, acessam o sistema para consultar suas notas, fazer matriculas ou solicitar serviços.

A Techne calcula que com a adição das funcionalidades do SAP Business One, o se produto consolidará posição entre os clientes atuais, além de atrair o interesse de um número considerável de instituições de ensino que carecem de soluções tecnológicas completas viáveis para a gestão.

As metas agressivas – aumento de 30% no volume de vendas em um ano e crescimento de 50% na participação de mercado até 2023 – refletem a confiança na atratividade do produto.

Fonte: Ti Inside Online
Autor: Redaão Ti Inside Online

Byadmin_rs

Sim, vamos falar de ERP!

O ERP estará sempre presente, no núcleo de todos os processos e incontáveis integrações de dados

Se antes a dúvida era sobre a escolha do novo modelo do carro que você iria trocar, agora o questionamento reflete a necessidade real de se ter ou não um veículo próprio. Vivemos novos tempos, em que somos transformados pelo uso da tecnologia. Diante de tantos aplicativos de serviços de transporte, aluguel ou compartilhamento de automóveis e possibilidades de veículos autônomos, a simples escolha de um modelo perde um pouco o sentido. O que queremos é nos mover de um lado para o outro, de preferência com mais facilidade e custos reduzidos.

Essa jornada de transformação digital transpassa todos os setores da sociedade e todos os segmentos de mercado. A evolução veio com a decisão das pessoas de se conectarem e compartilharem as informações. E as organizações começam a perceber que esse engajamento coletivo pode sim ser um novo modelo de negócio.

Para ajudar nessa caminhada, inúmeras tecnologias despontam todos os dias. Big Data, Inteligência Artificial, Internet das Coisas são algumas das mais faladas, testadas e usadas. Mas para que tudo isso faça sentido e funcione, precisamos sim falar de ERP (Enterprise Resource Planning), que, na verdade, é a base de todas essas novas tecnologias.

Os sistemas de gestão evoluíram, se transformaram em plataformas e devem garantir o compliance – das regras de negócios, fiscal e a segurança das informações. Ou seja, o software se tornou a espinha dorsal do mundo corporativo.

Na próxima chamada de um táxi, na previsibilidade de comportamento de consumidores em grandes redes de varejo, na retenção de um aluno na universidade, entre outras infinitas ações possíveis com o uso da tecnologia, o ERP estará sempre presente, no núcleo de todos esses processos e incontáveis integrações de dados.

Portanto, diante de tanta evolução e novas tecnologias, precisamos sim continuar falando de ERP. Os sistemas de gestão estão mais vivos do que nunca e são o início da jornada digital que toda empresa deve percorrer para sobreviver neste novo contexto de mundo.

Fonte: CIO
Autor: Laércio Cosentino

Byadmin_rs

5 passos para simplificar a migração para nuvem

Cloud privada, pública ou híbrida: cinco dicas para garantir que não haja sustos na implantação

A migração das empresas para a nuvem é algo inevitável. Assim como a internet e os smartphones transformaram radicalmente as nossas vidas, essa tecnologia está moldando os modelos de negócios de uma maneira nunca vista antes, com a inovação oferecida pela mobilidade, acessibilidade e agilidade fornecidas pelos ambientes virtualizados. Não por acaso, os investimentos globais em serviços de cloud computing devem chegar a US$ 500 bilhões até 2020, segundo dados do instituto de pesquisas de TI IDC.

Este dado não só reforça o amadurecimento no uso da nuvem, como também aponta a forma como as companhias passaram a enxergar o cloud computing ao longo dos anos: de algo restrito aos grandes players do mercado em virtude dos custos com implementação – que em geral eram cobrados em dólar, para um aliado insubstituível nas estratégias de redução de gastos e aumento de eficiência, devido à tamanha popularização do conceito em todo o mundo.

Entretanto, apesar dos gestores de TI falarem cada vez mais em nuvem, boa parte das empresas brasileiras ainda tem um longo caminho para se beneficiarem da aplicação deste conceito aos negócios, e assim, sobreviverem no novo cenário. É fato que muitas das empresas locais ainda não adotaram o cloud computing por completo, como aponta a pesquisa IT Brazil Snapshot, publicada ano passado, mostrando que, embora 82% das empresas no Brasil contratem algum serviço em nuvem, apenas uma pequena parcela delas (15%) têm 75% ou mais do ambiente corporativo no modelo virtualizado.

Para ajudar os gestores de TI que ainda não decidiram quando migrarão completamente, ou qual modelo de cloud adotar – privada, pública ou híbrida, elenco abaixo:

  1. Prepare e Planeje

Antes de qualquer coisa, é preciso analisar o que é crítico para a companhia, o que pode ser totalmente migrado para a nuvem e o que precisa estar acessível tanto no ambiente on-premise quanto no virtualizado. Esse mapeamento indicará a urgência da necessidade e o modelo ideal de nuvem a ser adotado.

  1. Migre aos poucos

Fique atento às aplicações que serão colocadas na nuvem. Em geral, as aplicações de back office (sistemas de e-mail, informações e colaboração) são migradas primeiro, como um teste para avaliar o ambiente virtualizado, para só depois de tudo certificado, subir os sistemas mais sensíveis, como ERPs e fluxos de trabalho, na nuvem.

  1. Gerencie o novo ambiente

Contar com uma plataforma de gestão é fundamental para obter uma visão abrangente dos fluxos de acesso, bem como para monitorar as cargas de trabalho, identificando gargalos e possíveis falhas a serem corrigidas, e assim, aproveitar melhor o potencial da cloud.

  1. Estude novas possibilidades

Depois de tudo migrado e rodando de maneira devida, é hora de explorar outros recursos da nuvem, como mobilidade, processos analíticos e Big Data, entre outros. As oportunidades que podem aparecer com o uso dessas ferramentas são quase infinitas, e uma delas pode se encaixar perfeitamente com as demandas e expectativas de cada tipo de negócio.

  1. Transforme o negócio

Após seguir estes passos, as companhias já terão um pé na transformação digital, abrindo a porta para novas tecnologias capazes de alavancar ainda mais as estratégias de redução de custos e aumento de eficiência, em conjunto com a nuvem. Por isso, não tenha medo de testar as inovações que podem surgir no caminho.

Por fim, se a empresa não conta com expertise para colocar em prática a implantação da nuvem, é muito importante contar com parceiros capacitados para guiar nessa jornada para o universo da computação em nuvem. Mas cuidado, há muitos provedores de serviços que prometem mundos e fundos na hora de implementar a cloud. Para não entrar em uma ‘fria’, procure conhecer as certificações e a reputação desses fornecedores. Afinal, somente um parceiro de verdade trataria o seu ambiente de TI como você mesmo faria.

Fonte: Computerworld
Autor: Tiago Miranda

Byadmin_rs

5 erros comuns no processo de transformação digital das empresas

Processo não é tão simples como parece. Confira dicas para ter sucesso em sua estratégia digital

Que é necessário digitalizar os documentos para continuar sobrevivendo no mercado todo mundo já sabe. Mas a sua empresa está preparada para a transformação digital?

O processo não é tão simples como parece. Embora ainda existam aqueles que nem começaram a se preocupar com isso (e estão correndo o risco de serem devorados pela tecnologia), temos também os que estão tentando se aventurar na transformação digital de forma não-estruturada, o que pode aumentar a chance de erros e as perdas financeiras.

Segundo o estudo IDC FutureScape: Worldwide Digital Transformation 2018 Predictions, os investimentos diretos em transformação digital vão somar US$ 6,3 trilhões para o triênio 2018–2020. Ainda assim, a consultoria alerta que 59% das empresas globais ainda estão no que ela chama “impasse digital” e permanecem enroscadas nos estágios dois ou três do índice de maturidade digital.

Abaixo listei os erros mais comuns que vejo acontecer nas empresas no processo de transformação digital:

  1. Área de TI trabalhar isoladamente dentro da companhia

Não é de hoje que ouvimos que a TI precisar estar mais próxima do negócio. A necessidade de reinventar-se digitalmente pela qual passam as empresas faz com que o CIO necessite de novas soluções de monitoramento para não perder a visão do panorama geral de TI. A área de TI deve conversar de igual para igual com as demais áreas.

  1. Processos controlados manualmente

Quando os processos não são controlados de forma automática, ocorrem as falhas humanas e isso confunde o gestor, que continua sem saber as causas dos incidentes e não consegue tomar as decisões acertadas.

  1. Contratos “sem metas” com fornecedores

Um dos erros mais comuns é manter contratos fixos e sem SLA (Service Level Agreement) com os parceiros de negócios. Para que atue em função do negócio, é fundamental que a empresa classifique os incidentes adequadamente e contrate, avalie e pague parceiros e fornecedores com base no esforço operacional e no resultado de suas entregas. Afinal, tão importante quanto ter metas é conseguir controlar e mensurar os resultados.

  1. Manter um serviço parcial de monitoramento de dados

Seja a operação gerida pela equipe interna ou um parceiro tecnológico é essencial ter um serviço de monitoramento de dados imparcial, que possibilite coletar os dados de maneira transparente. Toda a equipe deve ser conscientizada disso para que o gestor tenha condições de melhorar a operação.

  1. Não acompanhar as rotinas em tempo integral

Manter uma política bem estabelecida de gestão de backup é mandatório para o sucesso da transformação digital. Portanto, é preciso fazer o acompanhamento das rotinas no esquema 24×7 para que seja possível identificar qualquer alteração no ambiente que possa interferir no backup. O acompanhamento de rotinas é uma prática que deve fazer parte de toda a operação de TI, controlando indicadores e analisando as causas de possíveis falhas.

Para se ter uma ideia, 80% das políticas de gestão de backup possuem falhas que não são de conhecimentos dos gestores de TI e 50% dos backups existentes não atendem uma situação de desastre. Preocupante, não?

Portanto, tenha em mente que a gestão de dados inteligente aliada a uma boa política de gestão de backup é fundamental para transformar a área de TI em uma cadeira muito mais estratégica que operacional e permitir a digitalização da sua empresa de forma segura e eficiente.

Fonte: Computerworld

Autor: Alexandre Paoleschi

Byadmin_rs

Checklist para a adoção da nuvem

Dez itens devem ser verificados antes da decisão de migrar para o novo modelo

Se sua empresa ainda não usa Cloud omputing como parte das operações diárias, há uma boa chance de o modelo invadir a companhia nos próximos anos. 

 Um dos principais benefícios da nuvem é a sua capacidade para a terceirização da infraestrutura e da gestão de aplicações complexas e serviços de dados, permitindo que os gerentes de data centers adquiram ciclos de computação e capacidade de armazenamento de uma forma mais granular, sob demanda. Em vez de gastar capital a granel com grandes servidores e soluções de armazenamento, você pode comprar tempo de computador com base no uso real de ciclos de CPU e a quantidade de gigabytes ou terabytes utilizados no armazenamento.

Migrar dados críticos e aplicações para a nuvem pode ser significativamente mais rentável do que manter o hardware nas instalações da empresa. Como seus dados são armazenados na infraestrutura do provedor de serviços, não há necessidade de investir na compra de equipamento, manutenção ou atualização do servidor.

Além disso, como os dados e o software estão sob responsabilidade de um provedor, a companhia contratante pode diminuir o número de funcionários de TI ou contratados necessários para manter o hardware on premise funcionando, direcionando-os para atividades mais estratégicas que agreguem valor aos negócios.

Ao migrar os dados da companhia para uma empresa especializada no fornecimento de soluções de computação em nuvem, a organização não está apenas investindo em uma solução de armazenamento off-site, mas também comprando um pouco de tranquilidade.

Isso porque, provedores de soluções em nuvem como Amazon, IBM, Cisco e Microsoft contam com funcionários treinados prontos para responder a emergências, frustrações e fracassos 24 horas por dia, 365 dias do ano, garantindo que companhia e funcionários tenham acesso a arquivos e aplicações de negócio. Além disso, eles dão a assistência necessária quando solicitados.

Por padrão, a computação em nuvem oferece uma solução de backup instantânea fora do local em que está rodando. Em casos de desastres no escritório, por exemplo, a continuidade dos negócios será assegurada, graças ao fato de que as informações são replicadas para outro local.

Ter uma solução de computação em nuvem significa também poder crescer rapidamente para atender às demandas de funcionários e clientes é uma obrigação. Conforme os negócios crescem, a solução baseada na nuvem pode ser rapidamente escalada para atender às crescentes necessidades.

Essa movimentação pode ser especialmente importante para empresas que dependem de vendas na web como representatividade significativa da receita. A falta de capacidade do servidor pode rapidamente resultar em vendas perdidas.

Em essência, a nuvem muda a sua estrutura de custos e gestão de TI a partir da compra de equipamentos, contratação de profissionais e operação de datacenters internos para um paradigma orientada a serviços em que você compra apenas o que você precisa quando você precisa. Torna-se problema de outra pessoa certificar-se que tudo está seguro, disponível e confiável.

No entanto, há sempre vantagens e desvantagens em entregar o controle de sua TI para outra pessoa. Você precisa ter certeza de que vale a pena, e que funciona.

Aqui estão dez itens para verificar antes de adotar a nuvem:

1) O contrato é bom o suficiente para protegê-lo, não importa o que acontecer com o fornecedor nuvem?

2) O que acontece se e quando o provedor falhar?

3) Como você pode mudar de fornecedores e mover os dados se quiser deixar o serviço?

4) Você conhece seus atuais custos internos, e vai migrar para a nuvem para reduzi-los?

5) Existe alguma flexibilidade na capacidade de escolher produtos de fornecedores específicos, ou você está preso ao que é oferecido?

6) Se o seu desejo é a terceirização de armazenamento, existem preocupações com o desempenho?

7) Se houver preocupações, existem garantias?

8) E quanto à segurança dados e à criptografia?

9) Se você estará em um ambiente multi-tenant, haverá algum isolamento lógico ou físico?

10) Quais aspectos de confiabilidade estão implementados e disponíveis? Existe uma escala baseada em custo RAS para confiabilidade, disponibilidade, escalabilidade, ou todo mundo tem a mesma solução?

Tudo isso é importante para começar a avaliar se a computação em nuvem faz sentido para a sua organização.

Fonte: CIO
Autor: Chris Poelker e Seamus Bellamy, Computerworld/EUA

Byadmin_rs

5 passos para adotar AI, antes que seja tarde demais

Conheça os principais requisitos para obter vantagens com inteligência artificial e machine learning

A inteligência artificial (AI, na sigla em inglês) e o machine learning vão começar a tomar muito mais decisões. Eles provavelmente ainda não serão usados em um futuro próximo para tomar decisões “grandes”, como colocar uma tarifa de 25% sobre uma commodity e iniciar uma guerra comercial com um parceiro.

No entanto, praticamente qualquer coisa que você tenha colocado no Excel, codificado ou classificado é um bom problema de cluster, classificação ou aprendizado para a tecnologia. Tudo que for um conjunto de valores que podem ser previstos é um bom problema de machine learning. Tudo o que é um padrão, forma ou objeto que você acabou de passar e “procurar” é um bom problema de deep learning.

E os negócios estão cheios disso. Assim como o processador mundial substituiu o pool de máquinas de escrever, AI em breve substituirá os trabalhadores de escritório que estão olhando para o Excel – e também substituirá alguns analistas.

As empresas precisam se preparar para essa mudança. Assim como as empresas que não se preparavam para a web e o comércio eletrônico foram deixadas de lado, também as empresas que não se adaptam a AI e ao machine learning.

Para se preparar para essa mudança, você tem cinco pré-requisitos antes mesmo de iniciar uma transformação de negócios. São eles:

1.Educação

Você não pode tornar todos na sua empresa um cientista de dados. Além disso, parte da matemática está correndo muito rápido para nós, meros mortais – o algoritmo específico que as pessoas acham mais eficiente esta semana provavelmente não será o certo na próxima semana.

No entanto, algumas coisas básicas não vão mudar. Todos na sua organização devem entender alguns recursos básicos de aprendizado de máquina, especialmente desenvolvedores:

Clustering: Agrupando as coisas.

Classificação: Classificando as coisas em grupos rotulados.

Previsão em uma linha: se você puder criar um gráfico de linhas, provavelmente poderá prever qual será esse valor.

Predição de variância: se é um risco de liquidez ou vibrações ou picos de energia, se você tiver um conjunto de valores que se enquadram em um intervalo, é possível prever qual será sua variação em um determinado dia.

Classificando/ordenando/priorizando: não estou falando sobre coisas simples. Seja para pesquisa ou priorização, o que a pessoa de vendas ou de suporte chama de próxima, isso é algo que pode ser tratado.

Reconhecimento de padrões: seja uma forma, um som ou um conjunto de intervalos ou eventos de valores, os computadores podem aprender a encontrá-lo.

Uma coisa fundamental é ter um conjunto de pessoas que pode emburrá-lo para as pessoas com base no seu nível de habilidade. Seus desenvolvedores podem estar interessados em algoritmos ou técnicas específicas, mas seus analistas e executivos devem entender os problemas básicos de negócios e as técnicas de computação. Seus executivos não precisam saber como o clustering funciona, mas precisam reconhecer que um problema “parece” um problema de clustering.

Finalmente, você precisa de uma atualização de educação regular, pelo menos anualmente, porque os recursos estão se expandindo.

  1. Componentização

Algumas das ferramentas recentes em torno da componentização são “notebooks” para cientistas de dados – muitas das outras ferramentas crescem a partir delas. Essas são ótimas ferramentas para os cientistas de dados e seus colaboradores.

O problema é que eles encorajam práticas ruins quando se trata de produção. A interface para um algoritmo de classificação parece mais ou menos a mesma que todos os outros algoritmos. Uma implementação específica do algoritmo de classificação não muda com o problema de negócios.

Assim como muitas empresas tiveram que descobrir como fazer uma representação de um cliente (em vez de totalmente diferentes em cada sistema para cada problema de negócios), você precisa fazer o mesmo para os algoritmos. Isso não quer dizer que você inventa o algoritmo de cluster único, mas que você compõe o que é diferente.

  1. Sistematização

Apesar de toda a comoção, a maioria dos sistemas ainda parece o mesmo. Existe algum processo para obter os dados em um algoritmo, algum processo para executar o algoritmo e um local para colocar o resultado. Se você está projetando todas essas coisas várias vezes para cada algoritmo, está perdendo tempo e dinheiro e criando um problema maior para si mesmo. Assim como SOA mudou quantas empresas implementam software de aplicação, técnicas semelhantes são necessárias em como AI é implantada.

Você não precisa de um monte de clusters Spark personalizados funcionando com “cadernos” personalizados em todos os lugares e processos ETL personalizados. Você precisa de sistemas de AI que possam fazer o trabalho pesado, independentemente do problema de negócios.

  1. Componentização de AI/UI

Em um mundo de interface de usuário JavaScript/Web com serviços RESTful no back end, muitas de suas interfaces de usuário devem ser capazes de apenas misturar um componente AI. Seja uma recomendação baseada no comportamento do usuário ou um assistente virtual completo, sua empresa deve criar uma biblioteca de interface do usuário que inclua a funcionalidade da AI para incorporar facilmente aos seus aplicativos de negócios.

  1. Instrumentação

Nada disso funciona sem dados. Não vamos voltar a criar depósitos de dados grandes, nos quais apenas coletamos um monte de lixo no HDFS e esperamos que ele tenha algum valor algum dia, como alguns fornecedores o incentivaram a fazer. Em vez disso, vamos ver o que as coisas devem ser instrumentadas.

Se você está fabricando, há pontos de partida simples: qualquer pessoa que esteja usando um medidor manual está desperdiçando seu tempo. No entanto, mesmo em vendas e marketing, você tem e-mail e telefones celulares – os dados podem ser coletados automaticamente a partir deles, o que é claramente útil. Em vez de incomodar os vendedores a obterem a entrada de dados, por que não permitir que os sistemas façam isso sozinhos?

Fonte: Computerworld

Autor: Andrew C. Oliver – InfoWorld (EUA)

Byadmin_rs

Adoção de Data Analytics está mais lenta que o esperado, alerta o Gartner

Apesar de a área ser a prioridade número um em investimentos para os executivos de TI, maioria das organizações ainda não atingiu o nível de maturidade desejado

Há tempos Data e Analytics (D&A) vem sendo apontada como prioridade número um em investimentos para os executivos de TI (CIOs – Chief Information Officers). Mas a maioria das organizações (91% das 196 pesquisadas globalmente) ainda não alcançou um nível de maturidade em relação à tecnologia, informa o Gartner.

A pesquisa global solicitou aos entrevistados que classificassem suas organizações de acordo com os cinco níveis de maturidade para Data e Analytics. O levantamento apontou que 60% dos entrevistados em todo o mundo se classificaram nos três níveis mais baixos. 

A maioria dos entrevistados em todo o mundo se classifica no Nível 3 (34%) ou Nível 4 (31%). Já 21% dos pesquisados se classificam como Nível 2 e 5% no Nível 1. Apenas 9% das empresas pesquisadas pelo Gartner consideram que estão no Nível 5, o mais alto no qual estão os maiores benefícios da transformação.

Menos da metade (48%) das organizações da Ásia Pacífico (APAC) indicam que seus avanços em Data e Analytics estão nos dois níveis mais altos, seguidas por 44% das empresas da América do Norte e por apenas 30% da Europa, Oriente Médio e África.

Melhorar a eficiência dos processos foi, de longe, o problema de negócios mais comum que fez com que as organizações recorressem a Data e Analytics. Segundo a pesquisa, 54% dos entrevistados em todo o mundo apontaram esse tópico entre seus três principais problemas. O aprimoramento da experiência dos clientes e o desenvolvimento de novos produtos ficaram juntos em segundo lugar, com 31% dos entrevistados listando cada um desses problemas. 

“Organizações com níveis de maturidade de transformação possuem maior agilidade, melhor integração com parceiros e fornecedores, além de maior facilidade de uso de sistemas preditivos e de Analytics. Isso tudo se traduz em vantagem competitiva e diferenciação de mercado”, afirma diz Nick Heudecker, Vice-Presidente de Pesquisa do Gartner,

A pesquisa do Gartner revelou ainda que, apesar de muita atenção em formas avançadas de Analytics, 64% das organizações ainda consideram o relatório de negócios e painéis de controle (dashboards) suas aplicações de negócios mais críticas para Data e Analytics. Da mesma forma, fontes de informações tradicionais, como dados transacionais e registros também continuam a dominar, embora 46% das organizações reportem o uso de dados externos.

“Não presuma que a aquisição de novas tecnologias é essencial para alcançar níveis de maturidade em Data e Analytics”, diz Heudecker. “Primeiro, concentre-se em melhorar a forma como as pessoas e os processos são coordenados dentro da organização e, em seguida, veja como aprimorar suas práticas com parceiros externos”, indica o analista do Gartner. “É fácil se deixar levar com novas tecnologias, como Machine Learning e Inteligência Artificial”, explica Heudecker. “Mas as formas tradicionais de Analytics e de Inteligência de Negócioscontinuam sendo uma parte crucial do funcionamento das organizações atualmente. É improvável que isso mude em um futuro próximo”.

 Barreiras
As organizações participantes da pesquisa relataram uma ampla gama de barreiras que as impedem aumentarem o uso de Data e Analytics. Não há uma razão clara para isso, mas as organizações tendem a experimentar um conjunto diferente de questões, dependendo da sua localização geográfica e de seu nível atual de maturidade. No entanto, a pesquisa identificou as três barreiras mais comuns para essa questão: definição de estratégia de Data e Analytics; determinação de como obter valor dos projetos; e resolução de problemas de risco e de governança.

“Essas barreiras são consistentes com o que ouvimos de clientes que estão nos níveis de maturidade dois e três”, afirma Jim Hare, Vice-Presidente de Pesquisa do Gartner. “À medida que a maturidade organizacional melhora no ambiente corporativo, as questões organizacionais e de financiamento tendem a aumentar”.

Em termos de infraestrutura, o modelo on-premise ainda domina globalmente, variando entre 43% a 51% das implantações. As implementações puras de Nuvem Pública variam entre 21% a 25%, enquanto os ambientes Híbridos ficam entre 26% e 32%.

“Analytics Workloads estão baseados na origem na qual os dados são gerados e armazenados. Hoje, a maioria de Workloads de Nuvem Pública é nova e não veremos uma porcentagem de crescimento na utilização de Cloud até que os legados de Workloads migrem em massa para essa plataforma”, afirma Hare. “Esse cenário acontecerá em algum momento, mas essa mudança provavelmente levará vários anos para ser concluída conforme os esforços modernos de Data e Analytics utilizem esmagadoramente os tipos tradicionais de dados armazenados no local”.

A pesquisa foi realizada por meio de um levantamento on-line no segundo trimestre de 2017 entre os membros do Gartner Research Circle – um painel composto por líderes de TI e de negócios. No total, participaram da pesquisa 196 empresas de todas as regiões (EMEA, APAC e América do Norte) e de 13 diferentes segmentos da indústria, com receitas anuais que variam de US$ 100 milhões a US$ 10 bilhões.

Fonte: CIO