Categoria Notícias em destaque

poradmin_rs

SaaS, BaaS, FaaS… O que vem a seguir?

Como parte das ações que integram a transformação digital, grandes empresas buscam diminuir os gastos com infraestrutura migrando a que possuem localmente (on-premise) para aquela que é entendida como um serviço – realidade proporcionada pela computação em nuvem. Como consultor na área, é possível afirmar que esse processo elimina toda a ociosidade dos sistemas locais, que normalmente costuma ser de 30% a 50% da capacidade instalada. Mas a cloud computing que me refiro não é a mais comumente conhecida e adotada, embarcada em um servidor.

Uma nova tendência para otimizar ainda mais a base tecnológica, principalmente para empresas que possuem oscilação no uso – como é o caso de grandes redes de e-commerce e startups que precisam de escalabilidade global – é a adoção do serverless (sem servidor, em inglês). Em 2017, a novidade já tinha sido destacada em pesquisas do Gartner como uma das realidades a serem empregadas no segmento enterprise na próxima década. O futuro chegou mais rápido do que se esperava e hoje grandes organizações já adotam esse tipo de estrutura, como Snapchat, Netflix e Spotify.

A evolução da nuvem não é só a de Infrastructure as a Service (IaaS), mas Backend as a Service (BaaS) e Function as a Service (FaaS). Ao adotar esses dois últimos conceitos, conseguimos otimizar ao extremo a base tecnológica de empresas que estão em processo de escalabilidade e veem a demanda por recursos oscilar bastante.

Se sua empresa for iniciar hoje o desenvolvimento de uma solução nova, não há dúvida que o conceito serverless é a melhor alternativa, inclusive se ela não precisa de escalabilidade nem sofre variação de consumo. Dessa forma, o desenvolvimento sem servidor é mais rápido, já que os programadores só precisam focar em codificar sua solução, e não mais com infraestrutura.

Um ponto muito importante de ressaltar é que estamos falando de desenvolvimento serveless, mas entre a “antiga” virtualização on-premise e o serveless ainda existe um grande passo: o de migrar a infraestrutura virtualizada para a nuvem. Em seguida avançamos para automatização da gestão dessa infra virtualizada, ou seja, ao mesmo tempo que já temos novas tecnologias totalmente automatizadas 95% da infraestrutura das grandes empresas ainda estão virtualizadas on-premise.

Mas se a sua organização já desenvolveu o produto com tecnologia antiga, ela precisará ser redesenhada para possuir o conceito serverless. Ou seja: invariavelmente haverá, no futuro, um investimento de recursos financeiros e humanos que ficarão dedicados a refactory (refazer) sua solução com essa nova tecnologia.

Fonte: CIO

poradmin_rs

Dez tecnologias vão definir 2018

São aplicações práticas o que já foi tendência e deve, de fato, impactar os negócios e a indústria

Como o filósofo grego Heráclito disse, “A única constante é a mudança”. E isso é certamente um fato para qualquer um que trabalhe em áreas relacionadas à tecnologia (e quem não, ultimamente?). O ritmo das inovações tecnológicas é tamanho que até mesmo as maiores fantasias sobre como seria o futuro parecem se tornar realidade.

À medida que as tecnologias atingem a maturidade, as inovações dão um salto – desde aplicações para o consumidor até aplicações para empresas. Assim, ao olhar para 2018, identificamos algumas tendências que devem impactar os negócios e a indústria.

A caminho da borda

Duas tendências dos últimos anos que se tornaram familiares – computação em nuvem e a Internet das Coisas – proporcionaram benefícios inegáveis para empresas e consumidores. Mas elas também vêm com implicações: o enorme aumento na quantidade de dados que estão sendo transferidos de dispositivos conectados para o data center. Tudo isso precisa ser processado e armazenado. Nesse cenário, a tecnologia de “Edge Computing” alivia esse problema ao executar o processamento de dados na “borda” da rede, perto da fonte dos dados. Isso reduz consideravelmente a largura de banda necessária entre sensores e dispositivos e o data center. O próximo passo para a computação de borda relaciona-se com preocupações potenciais em relação à integridade e privacidade dos dados: uma resposta provável a essas preocupações será deixá-los anônimos e criar dados criptografados dentro do dispositivo na borda antes de serem transferidos para o centro de dados.

C2C: Cloud-to-Cloud

Apesar da mudança para a computação de borda, a computação em nuvem ainda desempenhará um papel significativo nas infraestruturas de TI. Embora a computação em nuvem possa dar a impressão de ser uma única figura, existem, na verdade, várias nuvens sendo usadas em todo o mundo. Ao passo que um número crescente de empresas oferece serviços baseados em nuvem, o sistema ecológico de nuvem tem se tornado o ponto preferido para a integração, em vez dos sistemas on-premise tradicionais.

Um dos benefícios da integração entre as nuvens é uma redução da necessidade de serviços internos de TI. Além disso, os serviços compostos avançados de vários fornecedores podem ser criados e implantados através de APIs, incluindo análise de dados, gerenciamento de conteúdo e armazenamento.

Aprendizagem profunda e automática

A tecnologia chegou a um estágio em que os benefícios completos de arquiteturas de aprendizado profundo de máquinas podem começar a ser verificados. Temos enormes conjuntos de dados para analisar, temos o poder de processamento disponível para fazê-lo dentro de prazos razoáveis, temos algoritmos sofisticados e alguns estudos de caso para analisar. O potencial de análise no setor de proteção e segurança parece óbvio se lembrarmos que algumas das demonstrações mais impressionantes da aplicação do aprendizado profundo têm sido relacionadas a interpretação de imagens, reconhecimento de fala e suporte à decisão.

Em um nível relativamente básico, aplicações de aprendizado profundo melhorarão a detecção de movimento de vídeo, reconhecimento facial, rastreamento individual e supressão de falsos alarmes. Isso ajudará a concepção, configuração, otimização e gerenciamento de dispositivos do sistema. Além disso, à medida que os aplicativos se desenvolvem, há uma oportunidade para a análise preditiva que leva à prevenção de incidentes: desde terrorismo até acidentes domésticos; de questões de trânsito a roubos; e até mesmo a tragédia dos suicídios ferroviários.

Personalização VS. Privacidade

Uma das aplicações potenciais para o “deep learning” pode ser na entrega de serviços altamente personalizados. Imagine um ambiente de varejo onde o rosto de um cliente é reconhecido ao entrar na loja, e as ofertas são enviadas para um dispositivo móvel com base em compras anteriores, preferências ou até mesmo no histórico de navegação recente. Mas também, só porque algo pode ser feito não significa necessariamente que deveria ser, e este exemplo destaca imediatamente as preocupações crescentes em relação à privacidade e como os dados pessoais estão sendo usados por empresas e outras organizações.

Equilibrar a personalização com a proteção dos dados e da privacidade do indivíduo será uma corda bamba que todas as organizações caminharão no nesse ano.

Cibersegurança
Mais uma vez, como aconteceu no ano passado, a segurança cibernética deve aparecer na lista de tendências para os próximos 12 meses e além. O constante aprimoramento da segurança cibernética será uma tarefa sem fim, porque os cibercriminosos nunca pararão de explorar vulnerabilidades em qualquer nova tecnologia. E, à medida que o número de dispositivos conectados cresce de forma exponencial, também crescem as falhas potenciais que, se não forem atendidas, podem proporcionar a oportunidade de que redes sejam violadas, ransomwares plantados ou gerem um tempo de inatividade dispendioso. 2018, sem dúvida, verá mais ataques e vulnerabilidades expostas. A resposta é proatividade e um processo sistemático para garantir que os patches sejam instalados logo que estejam disponíveis.

Plataformas para aproveitar todos os benefícios do IoT

Falando sobre o IoT, chegou-se a um ponto que para escalar, coletar e analisar dados, gerenciar a rede de dispositivos conectados de forma eficaz, é crucial usar uma arquitetura escalável. Essa plataforma chamada IoT permite que o equipamento de diferentes fornecedores coexista e troque informações facilmente para formar sistemas inteligentes usando infraestrutura de rede existente. Existem inúmeras empresas, provedores de tecnologia e novos operadores no mercado – permitindo que plataformas suportem dispositivos IoT e neste ano haverá uma maior maturação. No entanto, o que também será importante futuramente serão novos padrões internacionais ou, de fato, a possibilidade de interoperabilidade entre as diferentes plataformas IoT – e que irão suportar os verdadeiros sistemas agnósticos.

Mais do que Bitcoin: Blockchain

Como um livro de registros aberto, o Blockchain pode registrar as transações entre duas partes de forma eficiente, verificável e permanente. 2018 começará a ver o blockchain sendo testado em múltiplas aplicações em diversos setores.

Em nossa indústria, dado que o blockchain permite a autenticação de qualquer conteúdo, a cadeia de blocos pode ser usada para verificar o conteúdo de vídeo de múltiplas fontes – como telefones celulares públicos e câmeras usadas pela polícia – para uso em investigações forenses. Além dos dados de vídeo, a cadeia de blocos também pode ser usada para verificar a autenticidade dos dispositivos conectados à rede da câmera.

Cidades Inteligentes

O conceito de Cidades Inteligentes não é novidade. Durante anos, o número crescente de sensores de diferentes tipos em ambientes urbanos está ajudando a resolver demandas específicas, desde a aplicação da lei até a monitoração da qualidade do ar. À medida que a população mundial está cada vez mais alojada nas cidades – 25% mais pessoas viverão em um centro urbano em 2050 – o uso de sensores para ajudar a criar ambientes mais habitáveis, sustentáveis e seguros só aumentará.

No entanto, uma verdadeira cidade inteligente é uma visão para o desenvolvimento urbano que integra tecnologia de informação, dados, comunicações e Internet das Coisas (IoT) de forma segura para gerenciar os bens de uma cidade – que incluem sistemas de informação de departamentos governamentais, escolas, transporte, hospitais, redes de abastecimento de água, gerenciamento de resíduos, serviços policiais e de emergência e outros serviços comunitários.

Tradicionalmente, a maioria desses serviços individuais operava em de forma isolada. E isso está impedindo a realização do potencial das Smart Cities. Uma cidade só pode realmente ser “inteligente” quando todos os seus dados estiverem abertos e utilizáveis em todos os serviços.

Lidar com os desafios urbanos, como a proteção e a segurança dos cidadãos, congestionamentos, o sucateamento da infraestrutura e as respostas a desastres naturais requer uma análise coordenada dos dados disponíveis, a fim de fornecer uma resposta adequada e efetiva.

A nova dimensão dos sensores não-visuais

Até recentemente, os principais dados – se não os únicos – disponíveis para os operadores de vigilância eram um vídeo que, obviamente, oferece apenas uma perspectiva bidimensional. Com o uso de novos sensores não-visuais, essa visão se tornará multidimensional, proporcionando uma riqueza de dados que permitirá uma avaliação mais rápida e precisa das situações e, portanto, uma escalada mais rápida, a ativação de uma resposta adequada e a minimização de falsos alarmes.

A tecnologia de radar, por exemplo, usa ondas eletromagnéticas para detectar movimentos. O radar não é sensível às circunstâncias que normalmente desencadeiam falsos alarmes, como sombras móveis ou feixes de luz, pequenos animais, pingos de chuva ou insetos, vento e mau tempo. Além disso, pode fornecer detalhes sobre a posição exata de qualquer objeto e seu deslocamento.

Os avanços na precisão da detecção de som, seja uma janela quebrada ou vozes agressivas, significam que o áudio será um recurso útil que poderia ser perdido em uma solução baseada puramente em vídeo.

Assistentes virtuais e realidade aumentada para os negócios

No ano passado, muitos consumidores adotaram assistentes virtuais – Alexa, da Amazon; Google Home; Siri, da Apple; e Cortana, da Microsoft. Os assistentes se tornaram famosos por ajudar as pessoas a gerenciar suas vidas diárias e as próximas tecnologias, como o Facebook M, só vão contribuir ainda mais com isso. É inevitável que essas mesmas tecnologias comecem a encontrar uma rota para o ambiente de negócios, já que os consumidores esperam os mesmos níveis de ajuda tecnológica no trabalho.

Da mesma forma, a realidade aumentada tem existido em nichos específicos, como o militar e a aviação, mas mostra um enorme potencial na arena de negócios. Uma das óbvias oportunidades na área de negócios é a instalação e manutenção de soluções tecnológicas onde as instruções visuais podem ser superadas na visão real dos técnicos para ajudá-los no trabalho.

Com o crescente uso de sensores e análises não-visuais para aumentar a precisão e novas perspectivas para a informação visual, os consumidores de videovigilância estarão usando Realidade Aumentada para reunir essas fontes de dados em uma única visão, permitindo uma resposta mais rápida e apropriada.

Fonte: CIO

poradmin_rs

Principais mudanças fiscais para o ano de 2018

O ano de 2018 exigirá muita atenção de todos os empresários brasileiros e os profissionais contábeis precisarão estar preparados para não terem problemas com o fisco.

Confira abaixo algumas das principais mudanças que impactarão diretamente na vida dos profissionais contábeis neste ano de 2018, uma vez que a transmissão de forma incorreta poderá acarretar multas e problemas para as empresas:


NF-e 4 0

As principais alterações da versão 3.1 para a versão 4.0 são as informações inseridas, categorias e o layout utilizado. A maior alteração será no layout, pois a NF-e é um arquivo eletrônico emitido no formato XML, que consolida as informações fiscais de várias operações de uma entidade, utilizando uma ordem para apresentá-las que chamamos de layout.
Outra mudança importante é a atualização do protocolo de segurança dos dados e das emissões de NF-e. A partir da versão 4.0 será permitido unicamente o protocolo TLS 1.2 ou versão superior. Ou seja, não será mais permitida a comunicação via protocolo SSL 3.0 e o TSL 1.0. O motivo desta mudança está amplamente documentado na internet pela falta de segurança comprovada no uso do Protocolo SSL.

e-Social

A partir do dia 8 de janeiro as empresas com faturamento anual superior a R$ 78 milhões em 2016, bem como aquelas que optaram pela antecipação, serão obrigadas a enviar informações ao eSocial referentes aos vínculos com trabalhadores que façam parte do seu quadro de funcionários e também daqueles que prestam serviço sem vínculo empregatício. As demais empresas serão obrigadas a aderir ao sistema a partir do dia 16 de julho de 2018.

O governo estima que a implantação do eSocial pode aumentar a arrecadação em R$ 20 bilhões por ano só por eliminação de erros, que levam as empresas a pagarem menos do que o devido.
Simples Nacional

As empresas que faturarem até R$ 4,8 milhões ao longo de 2018 poderão se enquadrar nas regras do Simples Nacional – sistema que permite o recolhimento simplificado de tributos. No ano passado, o teto anual de faturamento era de até R$ 3,6 milhões.


MEI

Já o teto de faturamento para se enquadrar na modalidade de microempreendedor individual (MEI) passou de até R$ 60 mil para até R$ 81 mil. A partir deste ano, 12 novas ocupações também foram liberadas para serem incluídas na categoria MEI, que tem tributação menor.
Também subiu o teto de faturamento para as microempresas, de R$ 360 mil por ano para R$ 900 mil.

Bloco K

No ano de 2017 o Bloco K tornou-se obrigatório para as empresas com faturamento igual ou superior a R$ 300 milhões ao ano, classificadas nas divisões 10 a 32 da Classificação Nacional de Atividades Econômicas (CNAE).
A partir de janeiro de 2018 o Bloco K passa ser obrigatório também para as empresas com faturamento igual ou superior a R$ 78 milhões ao ano e classificadas nas divisões 10 a 32 da Classificação Nacional de Atividades Econômicas (CNAE).

Reforma Trabalhista

As alterações introduzidas pela Lei nº 13 467/17, conhecida como ” Reforma Trabalhista “, fez uma série de modificações, dentre outras, sobre as verbas pagas pelo empregador, passando a classificar diversas delas como de natureza não-remuneratória.

A consequência dessa modificação é que, ao não serem classificadas como remuneratórias, elas são automaticamente excluídas da base de cálculo de diversos tributos e contribuições previdenciárias incidentes sobre a folha de pagamento dos estabelecimentos empresariais.

O ano de 2018 traz efetivamente muitas mudanças e adequações fiscais para todas as empresas e empresários, por isso, recomenda-se que “os empreendedores fiquem atentos a essas alterações e que, além consultarem sempre o contador e o jurídico para esclarecimento das dúvidas, busquem maneiras de otimizar a gestão da empresa, levando em conta as novas regras impostas pelo fisco”.

Fonte:  Rapidonoar.com

poradmin_rs

Oito projeções para a TI em 2018. Você está preparado?

Multicloud e Blockchain fazem parte da lista de tecnologias que vão orientar profissionais em suas arquiteturas de tecnologia

Com base na demanda de mais de 9,5 mil clientes, a Equinix decidiu lista oito tecnologias que vão balizar os projetos das empresas nos próximos meses. Confira as previsões abaixo:

  1. Redes privadas de Blockchain ganham visibilidade e se expandem
    O Blockchain público, centrado em vários tipos de moedas digitais, é muito diferente do blockchain privado que deverá ser mais atraente para as empresas em 2018. Principalmente por essas serem “autorizadas”, em vez de abertas, de modo que a gestão da identidade digital é feita de forma mais segura, oferecendo confiança e permitindo níveis maiores de processamento transacional.

As provedoras de redes de Blockchain para diferentes setores precisarão hospedar seus dados em múltiplos locais, de forma distribuída, para garantir baixa latência. Além disso, as empresas presentes às redes de Blockchain privado precisam saber lidar com a conclusão de transações sensíveis ao fator tempo. O

É certo que, em dado momento, as empresas estarão envolvidas em múltiplas redes de blockchain (por exemplo, supply chain, finanças etc) e vão querer que seus negócios estejam localizados perto de seus parceiros.

  1. IA deixa de ser tendência
    A tecnologia de inteligência artificialjá existe há seis décadas, mas somente agora está virando tendência. Por quê? Com o advento do big data, dos processadores orientados para IA e algoritmos de aprendizagem profunda, alguns avanços foram viabilizados, como casas, fábricas e carros inteligentes, que têm amplo apelo. 

Em abril de 2017, a IDC previu que as receitas mundiais para os sistemas cognitivos e de AI no ano chegariam a US$ 12,5 bilhões, e a Equinix prevê avanços ainda mais profundos dessa tendência em 2018.

Com isso, os sistemas de IA precisam interpretar e fundir dados de várias fontes que precisam ser distribuídos com modelos de construção focados em clouds e modelos de desenvolvimento na edge, para satisfazer os requisitos de processamento em tempo real. Os órgãos reguladores também têm demonstrado interesse em garantir que as aplicações de AI cumpram as leis de segurança e de residência de dados.

  1. IoT acelera migração para Edge Computing
    O Gartner espera que o número de dispositivos conectados em todo o mundo aumente de 8,4 bilhões, atualmente, para 20,4 bilhões em 2020. Em 2018, os requisitos da computação para permitir a internet das coisas (IoT) migrarão, cada vez mais, para a borda da rede.

A manutenção da baixa latência é uma das principais razões pelas quais as empresas estão migrando grandes quantidades de dados de dispositivos IoT em direção ao processamento e análise na Digital Edge. Colocar a interconexão na borda, no entanto, também gerará economia de custo de rede, uma vez que as empresas filtram volumes de dados mais próximos à fonte (na borda) para obter acesso mais rápido às informações necessárias para inovações viabilizadas pela IoT, como hospitais inteligentes. Em um número crescente de regiões, os dados devem ser processados na borda para cumprir os requisitos de residência de dados.

  1. Arquitetura para sistemas de cabos submarinos ganha destaque
    Os cabos submarinos são componentes essenciais para a internet, já que quase todo o tráfego global de dados passa por eles. Em meio ao crescente tráfego projetado, o investimento em novos cabos vem também aumentando.

De acordo com a TeleGeography, os custos globais de construção de cabos submarinos deverão ultrapassar US$ 2 bilhões em 2018, pelo terceiro ano consecutivo. Desde 2012, esses custos não ultrapassavam US$ 1 bilhão. Durante esse boom de construção, nota-se uma nova arquitetura surgindo, que reduzirá custos, melhorará a agilidade de implantação e os benefícios da interconexão.

Os avanços na tecnologia laser permitiram que os cabos submarinos ultrapassassem as estações cruzando o oceano para atingir diretamente data centers de varejo multiusuários no continente. Isso significa que os clientes desse sistema obtêm acesso direto e de baixa latência aos inúmeros ecossistemas industriais hospedados. Isso aumenta o apelo do sistema de cabos submarinos para seus clientes potenciais.

  1. SDN/NFV transforma as redesUma mudança fundamental na aceitação pelas empresas de redes definidas por software (SDN) e tecnologias de virtualização das funções de rede (NFV) está em andamento e reorientando a forma como as grandes empresas arquitetam suas redes de área ampla (WANs) para ampliar seus serviços de acesso à cloud. Esta mudança ganhará força em 2018.

As empresas não podem mais se dar ao luxo de redirecionar o tráfego usando as caras redes MPLS de suas filiais para uma localização centralizada, na qual aplicam políticas de segurança de rede em equipamentos físicos, antes de acessar a cloud.

Em sua estimativa mais recente, a IDC prevê expansão para o mercado mundial de Data Centers SDN a uma taxa de crescimento anual composta de 25,4% entre 2016 e 2021, quando chegará a quase US$ 13,8 bilhões.

  1. Soberania e auditoria de dados
    Diversas normas importantes de privacidade, segurança e soberania de dados serão estabelecidas em 2018 e todas trarão grandes implicações para as empresas, como o Regulamento Geral de Proteção de Dados (General Data Protection Regulation – GDPR) restringe a transferência de dados na União Europeia para países que sejam compatíveis com a norma, o que pode afetar as transferências entre empresas da UE e importantes parceiros de negócios internacionais.

Outra novidade será o relatório de Registro Auditoria Consolidada (Consolidated Audit Trail – CAT) nos Estados Unidos exige que as empresas efetuem o registro de todas as transações de valores mobiliários e assegurem a precisão dos serviços de cronometragem no nível de nanosegundos.

Além disso, há a Diretiva de Mercados em Instrumentos Financeiros (Markets in Financial Instruments Directive – MiFID ii) na Europa impõe novos requisitos de geração de relatórios e testes às empresas de investimento.

A aplicação do GDPR e leis similares de soberania de dados em todo o mundo exigirá que as organizações utilizem data centers em várias regiões para armazenar dados localmente. O CAT e a MiFID II também exigem que as organizações registrem transações financeiras em um nível granular, o que, por sua vez, exige que as organizações tenham um sistema de relógio interno minuciosamente sincronizado em vários data centers.  

  1. Multicloud demanda acesso a plataformas híbridas de TI
    O Gartner afirma que “estratégias multicloud se tornarão frequentes para 70% das empresas até 2019”. À medida que a multicloud se torna mais prevalente, vemos a crescente necessidade das empresas de controlar seu gerenciamento em uma plataforma de TI híbrida.

As empresas estão distribuindo suas aplicações em várias clouds, com base no melhor modelo para o negócio. Além disso, as empresas dependem cada vez mais de clouds redundantes para apoiar a continuidade do negócio e as iniciativas de recuperação de desastres. Isso exige uma estratégia multicloud que possa ser implantada em uma infraestrutura de TI híbrida (local e cloud).

  1. Proliferação da transformação digital (DX)
    A IDC descreve uma plataforma de transformação digital (DX) como viabilizadora da “criação rápida de produtos, serviços e experiências digitais voltados para o público externo, ao mesmo tempo em que moderniza agressivamente o ambiente ‘inteligente central’”. Prevê ainda que, até 2020, 60% das empresas terão adotado uma estratégia de plataforma DX em toda a organização.

Para acelerar essa mudança, as empresas de plataforma DX estão investindo mais em interfaces abertas de programação de aplicativos (APIs) e portais de desenvolvimento para clientes/parceiros em 2018.

Uma plataforma DX habilitada para API, orientada para o exterior, acelera o desenvolvimento e a integração de serviços digitais e fornece ferramentas mais inteligentes para automação e orquestração de TI. Também promove a inovação e um prazo de lançamento no mercado mais rápido para novas soluções. Nas plataformas DX, as empresas podem colaborar em ecossistemas constituídos por clientes interconectados, prestadores de serviços e parceiros de negócios.

Com as empresas passando a disponibilizar serviços por meio de uma plataforma DX acionada pela API, muitos terão que satisfazer desempenho, disponibilidade e SLAs relacionados à segurança para isso.

Fonte: CIO

poradmin_rs

O que a AI pode realmente fazer por seu negócio (e o que não pode)

IA, Machine Learning e Deep Learning não são balas de prata. Um CIO explica o que todas as empresas devem saber antes de investir nessas tecnologias

Como você pode saber se vale a pena investir tempo em uma tecnologia emergente, como a Inteligência Artificial, quando há tantos exageros publicados diariamente? Estamos todos apaixonados por alguns dos resultados surpreendentes, como o AlphaGo batendo o jogador campeão Go , os avanços em veículos autônomos , os avanços em reconhecimento de voz da  Alexa e da  Cortana e o reconhecimento de imagem realizado pelo Google Photos, o Amazon Rekognition e outros aplicativos de compartilhamento de imagens.

Quando empresas grandes e tecnicamente fortes como Google, Amazon, Microsoft, IBM e Apple mostram sucesso com uma nova tecnologia, e a mídia o glorifica, as empresas geralmente acreditam que essas tecnologias estão disponíveis para seu próprio uso. Mas é verdade? E, em caso afirmativo, onde é verdade?

Este é o tipo de pergunta que os CIO fazem cada vez que uma nova tecnologia começa a se tornar mainstream:

  • 1 – É uma tecnologia em que precisamos investir, pesquisar, prestar atenção ou ignorar? Como explicamos aos nossos líderes empresariais onde a tecnologia tem aplicabilidade ao negócio e se representa uma oportunidade competitiva ou uma ameaça potencial?
  • 2 – Como simplificamos o que a tecnologia faz em termos compreensíveis para os funcionários mais curiosos e separar o hype, a realidade atual e o potencial futuro?
  • 3 – Quando determinados funcionários da equipe mostram interesse em explorar essas tecnologias, devemos apoiar? Como devemos orientá-los e em quais aspectos da tecnologia eles devem investir tempo de aprendizado?
  • 4 – Como avaliar, entre as ofertas dos fornecedores,  o que tem potencial real de negócio versus aqueles serviços ainda muito incipientes para alavancar versus outros que são realmente hype?

O que realmente é a Inteligência Artificial e como chegamos lá?

A IA já tem algum tempo , mas para mim, ele teve seu grande começo em 1968-69, quando o  sistema de processamento de linguagem natural SHRDLU (NLP) saiu. Na época, foram publicados artigos de pesquisa sobre perceptrons e backpropagation, e o mundo tomou conhecimento da IA através do HAL, em 2001: Uma Odisséia do Espaço. Os avanços importantes, bem posteriores, podem ser fixados no final da década de 80, com a propagação de uso dos algoritmos de aprendizagem e, em seguida, a sua aplicação a problemas como o reconhecimento de escrita . A IA assumiu desafios em larga escala no final da década de 90 com o primeiro chatbot (ALICE ) e Deep Blue batendo Garry Kasparov, o campeão mundial de xadrez.

Tive minha primeira experiência prática com a AI nesta época. Na escola de pós-graduação da Universidade do Arizona, vários de nós estavam programando redes neurais em C para resolver problemas de reconhecimento de imagem em áreas médicas, astronômicas e outras áreas de pesquisa. Experimentamos vários algoritmos de aprendizagem, técnicas para resolver problemas de otimização e métodos para tomar decisões em torno de dados imprecisos.

No caso das redes neurais, programávamos a matemática do perceptron à mão e passávamos para as camadas da rede para produzir a saída. Em seguida,aplicávamos os algoritmos de backpropagation para ajustar a rede. Então esperávamos longos períodos de tempo para que o sistema estabilizasse sua saída.  Quando os resultados iniciais falhavam, nunca tínhamos certeza se as falhas tinham sido provocadas por termos aplicados os algoritmos de aprendizado errados, não ajustarmos a nossa rede adequadamente para o problema que estávamos tentando resolver ou simplesmente se havíamos cometido erros de programação nos algoritmos perceptron ou backpropagation.

Pensando nisso, é fácil ver por que há um salto exponencial nos resultados de IA nos últimos anos, graças a vários avanços tecnológicos.

Primeiro, há computação em nuvem, que permite o gerenciamento de grandes redes neurais em um conjunto de máquinas. Em vez de fazer um loop através de perceptrons, um de cada vez, e trabalhar com apenas uma ou duas camadas de rede, a computação é distribuída em uma grande variedade de nós de computação. Isso permite algoritmos de aprendizagem profunda , que são essencialmente redes neurais com um grande número de nós e camadas que permitem o processamento de problemas em larga escala, em quantidades razoáveis de tempo.

Em segundo lugar, há o surgimento de bibliotecas e serviços comerciais e de código aberto, como TensorFlow , Caffe , Apache MXNet e outros serviços que fornecem aos cientistas de dados e desenvolvedores de software facilidades na implementação de algoritmos de aprendizado de máquina e aprendizagem profunda em seus conjuntos de dados sem terem que programar a matemática subjacente ou habilitar a computação paralela. As aplicações futuras da IA serão conduzidas pela AI em um chip ou à bordo, impulsionadas pela inovação e competição entre a Nvidia, Intel, AMD e outros.

Não confunda o hype de IA com as realidades em IA

Uma vez que você tenha uma compreensão da história e uma compreensão da tecnologia, muitas vezes é útil rever onde uma tecnologia emergente está em seu ciclo de vida.

O Gartner alocou o Machine Learning e o Deep Learning no topo de seu Hype Cycle e prevê que “IA geral” (AI aplicada a qualquer problema de inteligência) surgirá após 2020.

A Venture Scanner mostra que cerca de dois terços do financiamento de startups de IA está em rodadas iniciais (sementes, série A e série B), indicando que muitas empresas que vendem ou comercializam soluções de IA ainda estão no início do desenvolvimento de produtos e ciclos de vendas.

A McKinsey afirma que apenas 20 por cento das empresas conscientes do potencial da IA estão adotando a tecnologia e que mais de metade dos investimentos em IA é provenientesde gigantes tecnológicos e startups versus empresas que passaram a usar a tecnologia.

Essas estatísticas devem dar a qualquer executivo de Ti ou das áreas de negócio um sinal de alerta antes de decidir por investimentos maiores em IA. Embora a IA certamente demonstre muita promessa, a aplicação comercial desses algoritmos em escala ainda é relativamente nova.

E os primeiros vencedores são grandes empresas de tecnologia e startups com talento, financiamento e paciência para experimentar novas tecnologias. A maioria das empresas usuárias simplesmente não podem se dar a esses luxos e estão apenas começando suas viagens em IA.

A Inteligência Artificial é uma tecnologia altamente disruptiva, então você não deve ignorá-la. Apenas prossiga judiciosamente e evite ficar hipnotizado pelo exagero da IA.

Por exemplo, quando a voz se torna uma interface de máquina humana melhor do que as telas e teclados, para algumas aplicações, ou quando os chatbots se tornam mais inteligentes e rápidos do que os agentes humanos de atendimento ao cliente, muitas empresas precisarão atualizar suas experiências de usuário com essas tecnologias. Então, vale mantê-las no radar, mas em ambientes controlados.

Da mesma forma, quando os algoritmos de Deep Learning melhoram na detecção de fraude, transações de risco ou ameaças de segurança, as empresas precisam estar prontas para usar essas abordagens.

quando começarmos a extrair inteligência da linguagem falada, do áudio e do vídeo, da forma mais eficaz possível, com dados mais estruturados, o uso desses recursos proporcionará vantagens competitivas significativas para uma grande variedade de negócios.

Quando é a palavra aqui. Estamos no condicional.

A maioria das empresas deve ter como objetivo ser seguidora rápida, não early adopter precoce. Isso significa prestar atenção e até mesmo experimentar com IA nestes primeiros dias, esperando  para confiar na AI até que a tecnologia esteja suficientemente madura, comprovada e capaz de entregar em escala.

À medida que você aprender sobre as capacidades de IA, deve procurar por ferramentas e exemplos práticos para ajudar a avaliar as aplicações e sua maturidade. Exemplos:

  • – A Forrester aponta nove tecnologias IA como essenciaise propõe um modelo de construção que começa com hipóteses e pesquisas e termina com três níveis de aplicação pragmática.
  • – A Workday publicou seu modelo de maturidadeque aplica IA à automação e informa às pessoas antes da descoberta e da transformação da aplicação. Isso faz sentido porque é mais fácil avaliar os resultados da IA quando aplicada a problemas que as pessoas já estão resolvendo.
  • – Há vários exemplos da indústria, incluindo seguros, cuidados de saúde , bancos , agricultura , legislação, publicidade , construção , instituições de caridade e mídia .

O hype em torno da IA e do Machine Learning está levando alguns líderes de tecnologia e negócios a mergulhar em uma estratégia de primeira tecnologia. Se você está iniciando sua jornada e experimentando bibliotecas de aprendizado de máquina ou selecionando vendedores que estão batendo os tambores da IA, você está faltando de cumprir algumas etapas iniciais importantes.

Comece por analisar os problemas e as oportunidades de negócios com significativa vantagem para compensar os custos de pesquisa e desenvolvimento. Essas oportunidades devem ser apoiadas por conjuntos de dados muito grandes que você já possui ou que você pode adquirir e  dados que se integrem facilmente. E procure conhecer casos de sucesso.

Um dos motivos para começar com uma oportunidade de negócio definida é que você pode encontrar soluções que não exigem ter que lidar com as tecnologias mais recentes de IA. Se for necessária alguma forma de IA, essa abordagem de oportunidade de negócios permite classificar o tipo de solução e avaliar a maturidade geral da IA necessária para resolver o problema.

Por exemplo, se você estiver tentando automatizar um processo de negócio altamente manual envolvendo inspeção visual de peças que saem de uma linha de montagem, você pode optar por uma combinação de reconhecimento de imagem e automação de processos robotizados como parte do conjunto de soluções. Ambas são áreas de IA mais maduras, como evidenciado pela variedade de cases de sucesso e soluções de fornecedores nesta área.

Por outro lado, se a solução requer uma avaliação e pensamento cognitivo significativo, você está indo para um espaço de IA imaturo.

Uma maneira de avaliar a maturidade da IA é analisar as várias opções de fornecedores trabalhando com as startups de IA. Analisando essas listas, você verá que muitas startups têm soluções focadas em conjuntos discretos de problemas, em vez de soluções cognitivas generalizadas.

Não se deixe enganar quando um vendedor disser algo como: “Basta lançar seus dados na nossa IA” e esperar que a inteligência especializada seja devolvida. Isso não acontecerá.

Para realmente trabalhar, sua IA precisará de muitos dados

Isso traz o segundo pré-requisito para executar IA com sucesso: você precisa de grandes quantidades de dados relativamente limpos para treinar soluções de IA e avaliar saídas.

Uma razão pela qual os veículos autônomos são possíveis são os 4mil GBytes gerados a partir de uma hora de condução por sensores encontrados nesses carros. Isso é uma grande quantidade de dados usados para tomar o que realmente são apenas um punhado de decisões fundamentais sobre se o carro deve girar, acelerar, diminuir a velocidade ou parar completamente.

Muitas soluções de IA bem sucedidas se enquadram nesta mesma categoria de grandes quantidades de dados em um número finito de decisões. No reconhecimento de imagem, por exemplo, estou olhando uma imagem que contém você, ou não? Na filtragem colaborativa, um artigo recém-publicado é mais relevante para você com base em suas experiências de leitura passadas versus outras opções de leitura? Ao avaliar uma transação, ela possui padrões semelhantes a transações fraudulentas?

A IA “dentro da caixa” está tentando aproximar uma curva para tomada de decisões. No Deep Learning, por exemplo, o número de camadas e neurônios na rede pode aproximar curvas altamente complexas para diferenciar os resultados. Para desenvolver esta rede, você precisa de um conjunto de Big Data e marcadores para que a rede possa ser treinada comparando seus resultados em relação ao resultado etiquetado com o resultado desejado. Os erros são então usados para ajustar a rede usando backpropagation ou outros algoritmos de aprendizagem, e o exercício é repetido várias vezes em todos os dados marcados até que a rede se estabilize em uma curva otimizada. Estas são soluções de aprendizagem supervisionadas, desenvolvidas usando um conjunto de treinamento.

Se os dados não são marcados, as redes podem usar abordagens de aprendizagem sem supervisão que dependem de expressões de entropia que avaliem o resultado. Por exemplo, quando o Google DeepMind foi usado para aprender a jogar o jogo Atari Breakout. Ele usou a pontuação para avaliar os resultados.

Além dos conjuntos de dados, sua organização precisa de integração de dados e capacidade de automação para que você possa mover dados para dentro e fora de qualquer mecanismo de processamento de IA. Se a sua organização necessita que as pessoas executem scripts manualmente para empurrar os dados, sugiro fortemente investir primeiro na automação antes de mergulhar em soluções de AI.

Suas opções para experimentar com AI

Uma vez que você tenha oportunidades de negócios identificadas e conjuntos de dados limpos disponíveis, você está pronto para considerar o uso de IA. Essas duas etapas são pré-requisitos para preparar sua organização para Inteligência Artificial . Os principais passos a seguir são considerar os tipos de solução e de implementação de IA. Se você tem os talentos necessários, você pode experimentar o TensorFlow ou um dos outros motores de IA. Se você não tem experiência, pense duas vezes sobre tentar recrutar para isso. Os gigantes da tecnologia estão pagando enormes salários pelo talento escasso de IA , e os custos para entrar no jogo são enormes.

Uma segunda opção é usar fornecedores que incorporaram IA em suas soluções. Um exemplo é o Salesforce Einstein , uma plataforma de IA que pode executar a previsão e outras funções em cima dos dados de CRM armazenados nas soluções Salesforce. Da mesma forma, você pode analisar soluções específicas do setor, como o Neo, da Synechron, para tecnologia financeira (fintech).

Uma vez que você tenha adotado uma ou mais abordagens, é importante estabelecer expectativas realistas com as partes interessadas. Investir em IA requer um compromisso com a experimentação ágil, porque é provável que você encontre muitas faltas e experiências que exigem muitas corridas antes de serem otimizadas. Defina essas expectativas para o orçamento, o prazo e o talento, antecipadamente.

Fonte: CIO

poradmin_rs

Tendências e urgências em cibersegurança em 2018

Gerir vulnerabilidades desconhecidas, técnicas emergentes e promover uma cultura de prevenção em que política, tecnologia e educação estão entre elas

2017 foi um ano desafiador para a segurança da informação. Ao longo do ano, ataques de grandes proporções, como o WannaCry e o Petya, reafirmaram ao mercado a importância de se preparar para a expansão do cibercrime, em especial com o ransomware.

Esses episódios mostram que o mundo corporativo ainda está muito vulnerável em termos de cibersegurança. Apesar de importante, este tema ainda não é prioritário e a maioria das empresas não tem políticas, procedimentos e controles eficazes para gerir vulnerabilidades e mitigar riscos.

É claro que, com os prejuízos financeiros e econômicos causados pelos incidentes de segurança, algumas lições foram aprendidas (ou comprovadas). A primeira é que nenhuma empresa está 100% segura. A segunda é que informação tem grande valor e precisa ser protegida. Episódios de vazamento de dados de grandes corporações mostraram o interesse igualmente grande dos cibercriminosos – além de alertar para os danos legais, financeiros, de produtividade ou de reputação.

No entanto, esse panorama não é novo. Passamos 2017 reforçando a grande necessidade de dar mais atenção a cibersegurança. Criar e assegurar políticas que consigam prever cenários, prevenir incidentes e proteger as infraestruturas e informações corporativas é mais que uma tendência, é uma urgência.

Por ser uma urgência, algumas transformações já são experimentadas desde agora e ganharão força em 2018. O investimento em cibersegurança crescerá 8%, segundo o Gartner. Cabe destaque à mudança necessária de mensalidade, pois cibersegurança é de fato um investimento, interessa aos negócios e a estratégias das empresas. E é desse aspecto que deriva a grande tendência do próximo ano.
O CISO será cada vez mais estratégico para as empresas que migram para o mundo digital. Ou seja, grande parte. A transformação digital não se limita as áreas de TI, mas nasce da demanda dos departamentos de vendas, marketing, finanças, RH, administração e tantos outros. Essa mudança na dinâmica organizacional requer que os especialistas deem suporte ao crescimento, a produtividade e a agilidade, de forma segura.

Os desafios para o CISO serão muitos: IoT, BYOD, computação em nuvem, cibercrime, privacidade, resiliência, compliance. É necessário estar atualizado, especializado e ter uma equipe igualmente competente para enfrentar esse cenário. Gerir vulnerabilidades desconhecidas, técnicas emergentes e promover uma cultura de prevenção em que política, tecnologia e educação estejam alinhadas para maior segurança.

Fonte: CIO

poradmin_rs

Cinco previsões que devem nortear o mercado de Cloud em 2018

A computação em nuvem tem sido o motor para a transformação digital das empresas, de todos os tamanhos e indústrias. Confira quais são as principais tendências que devem dar o tom do mercado em 2018, segundo a A10

Há alguns anos, não era possível prever que a computação em nuvem atingiria os níveis atuais, ou seja, que 79% das empresas no mundo já executam cargas de trabalho na nuvem — divididas quase que em partes iguais entre nuvens públicas e privadas. Para analisar as futuras tendências da nuvem, a A10, fornecedora de soluções para otimização do desempenho de aplicações e dados em rede, e ligou seu capacitor de fluxo e acelerou o DeLorean, o carro “De volta para o futuro”, até 88 milhas por hora para ver o que está por vir em 2018:

Surgimento de verdadeiras nuvens hibridas

A possibilidade das empresas de hospedar suas aplicações em diferentes infraestruturas — nuvens públicas, privadas e on premises com ferramentas comuns de orquestração e gerenciamento — é atraente. Multinuvem, com diferentes cargas de trabalho em diferentes nuvens e sendo gerenciadas separadamente, se tornará dominante em 2018, enquanto nuvens híbridas verdadeiras começarão a surgir.

Já existem projetos de tecnologia importantes e parcerias se formando para tornar isso uma realidade. Por exemplo, o Azure e Azure Stack da Microsoft fornecem um conjunto uniforme de recursos de infraestrutura e API em nuvens públicas e privadas; a parceria entre VMware e AWS da Cisco e Google. Esses mashups criam nuvens híbridas que unem realmente os ambientes e melhoram ainda mais a agilidade operacional, eficiência e escalonamento.

Kubernetes dominarão a orquestração de contêineres

A luta pelo domínio da orquestração de contêineres tem sido um dos principais desafios da nuvem nos últimos dois anos. A batalha de três vias entre Docker Swarm, Kubernetes e Mesos tem sido feroz.

Em 2018, no entanto, a Kubernete está preparada para levar o título da orquestração de contêiner e também se tornar cada vez mais importante em implantações de produção escaláveis e de missão crítica. O seu conjunto de colaboradores aliado ao rápido desenvolvimento de capacidades e suporte em muitas plataformas díspares tornaram a empresa um vencedor claro.

Ela conta ainda com a ajuda de amigos de peso: Microsoft Azure e Google Cloud lançaram serviços gerenciados da Kubernetes. A IBM também anunciou que sua nuvem privada suportará Kubernetes na Bluemix; A AWS também está seguindo o mesmo caminho, ao firmar parceria com a Cloud Native Computing Foundation (CNCF) como membro platina.

Todos estes fatores levarão as Kubernets para projetos mais mainstream, com crescimento contínuo de workloads de grande produção.

Analytics com inteligência artificial (IA)

IA está em toda parte. Está em nossos lares com o Amazon Echo, por exemplo. Em 2018, veremos um aumento do uso de Inteligência Artificial incorporada às ferramentas analíticas de TI, tornando a tarefa proativa em vez de reativa.

Por meio de análise preditiva, os gestores de TI e aplicações receberão informações e recomendações úteis. Adicione a isso a capacidade de automatizar sua resposta, e o poder da IA torna-se mais relevante.

Os sistemas de análise terão uma visão do comportamento da infraestrutura, aplicações e clientes. Ele reconhecerá um desempenho anômalo ou comportamento de segurança e quando uma aplicação ou servidor falhará. Uma vez que esse comportamento é notado, a automação pode entrar em ação para remediar um problema potencial, ou seja, ativar outro servidor ou carregar o balanceamento da aplicação. É como se sua infraestrutura pudesse dizer “Alexa, ative outro servidor”.

Adoção de serveless computing

Um dos benefícios da nuvem é a facilidade de uso para aplicar recursos adicionais e seu modelo de consumo de pagamento por uso. Em nenhum lugar isso é mais evidente do que na computação sem servidor (serverless computing). Antes, a unidade para recursos de computação era uma instância ou VM. Agora, uma “função” tornou-se uma unidade ainda menor de “uso”. O fato de gerenciar e expandir os recursos sob demanda no provedor de nuvem é econômico e tira o peso das costas do TI. Os custos com base em um modelo de consumo facilitam a vida em orçamentos apertados.

Já disponível na nuvem pública, para o próximo ano, a computação sem servidor também começará a aparecer em implementações de nuvem privada. Embora não se torne dominante, uma adoção mais ampla acontecerá no curto prazo.

A computação severless, em conjunto com o amadurecimento de nuvem, colocará pressão nos fornecedores de servidores e hardware para transformar seus modelos de negócios afim de manter relevância em um novo mundo virtual, elástico e automatizado da nuvem.

Instâncias de nuvem personalizadas irão proliferar

À medida que a adoção da nuvem cresce, os tipos de instâncias de computação vão tonar-se ainda mais segmentados e otimizados para casos específicos de uso; permitindo melhor desempenho e novas aplicações. Em 2018, veremos o crescimento de instâncias de aplicações especificas dentro da nuvem — desde big data e otimização para IA até redes de alto desempenho e tipos de memória grandes. Aplicações otimizadas que aproveitarem estes pontos, vão começar a surgir.

Por exemplo, no início deste ano, a A10 em parceria com a Microsoft conseguiu entregar 30Gbps com o vThunder na Azure. Isso é uma instância de alta performance. Espere ver mais destes modelos surgindo em 2018

Previsão Bônus

Adeus às preocupações com segurança na nuvem

A segurança está ausente da nossa lista de previsões da nuvem. Por quê? Simples. É hora de seguir em frente. Sim, a segurança é sempre importante e ainda mais na nuvem. Mas não é mais o obstáculo que era quando a nuvem estava em seus primeiros passos. Ao longo dos anos, a nuvem e os serviços disponíveis nela amadureceram. Há mais segurança integrada. Mais ferramentas estão disponíveis. O compliance chegou à nuvem.

Como toda a TI, é primordial pensar em soluções de segurança, políticas e governança ao implementar cloud ou uma grande mudança de infraestrutura, mas, em 2018, a nuvem não será mais considerada como um ambiente não seguro por padrão.

Conclusão

No mundo da nuvem, as coisas se movem rapidamente. Isso é apenas um snapshot do que achamos que Doc e Marty encontrarão se levarem o DeLorean para o próximo ano. Certamente veremos grandes manchetes sobre uso da nuvem, pois mais pessoas encontrarão maneiras cada vez mais inovadoras de consumi-las.

Fonte: ComputerWorld

poradmin_rs

Cinco aplicações da Internet das Coisas no varejo

Os principais elementos de uso da IoT incluem a cadeia de suprimentos, o consumidor sempre conectado e as aplicações em lojas inteligentes.

A Internet das Coisas (IoT), uma das tecnologias que mais deve impactar a vida das pessoas e das empresas nas próximas décadas, nada mais é uma do que uma rede em que objetos passam a estar conectados uns aos outros por meio de sensores embutidos capazes de receber e transmitir dados em tempo real. Essa rede permite que esses dispositivos se comuniquem, analisem e compartilhem informações sobre o mundo ao nosso redor, utilizando plataformas e softwares baseados em nuvem.

No caso do varejo, as tais “coisas” conectadas podem incluir chips para rastreamento de inventário (RFID – Identificação por Rádio-Frequência), balcões com infravermelho para controle de tráfego no interior das lojas, sistemas de rastreamento via celular e Wi-Fi, sinalização digital, um quiosque ou até mesmo um dispositivo móvel que o cliente esteja usando.

Os principais elementos de uso da IoT incluem a cadeia de suprimentos, o consumidor sempre conectado e as aplicações em lojas inteligentes. A seguir, confira exemplos de cinco áreas nas quais os varejistas já estão tirando proveito das vantagens da Internet das Coisas:

1 – Manutenção Preditiva – Ela é usada no gerenciamento de energia, na prevenção de falhas ou na detecção de outros problemas. Em um supermercado, por exemplo, há muitos equipamentos em uso constante, entre os quais os sistemas de refrigeração dos setores de frios, laticínios e carnes. Naqueles que possuem sensores, é possível prever qualquer ocorrência que possa afetar o consumo de energia, no intuito de manter ou monitorar as variações de temperatura e assim garantir a qualidade dos alimentos.

2 – Transporte Inteligente – A eficiência no transporte dos produtos é um dos objetivos de aplicações no varejo, e a Internet das Coisas pode ser utilizada com diversos propósitos: manutenção, rastreamento e otimização de rotas, por exemplo. Muitos varejistas fizeram uso no passado do GPS, mas com a IoT é possível saber a que distância um pallet está de determinada loja, com um grau de precisão muito maior.

3 – Armazenamento Sob Demanda – Quando se trata de estocagem, a IoT se conecta a dois conceitos muito atuais: automação e robótica, ambos impulsionados pela demanda de compras tanto nas lojas físicas quanto de compras online. A Internet das Coisas permite monitorar as oportunidades de vendas em tempo real e, ao mesmo tempo, fazer o rastreamento das vendas perdidas nas lojas. Vale lembrar que o RFID é um item da IoT muito bem testado e que pode ser usado para a gestão do inventário. Atualmente, um centro de distribuição ou armazém é organizado com corredores e prateleiras. No futuro, eles serão espaços abertos, nos quais os pallets automáticos serão organizados de acordo com a demanda e em tempo real.

4 – Cliente Conectado – Cada vez mais os consumidores, sempre conectados, são impactados por onde passam. Os varejistas entendem que os clientes são capazes de pesquisar preços e níveis de estoque das lojas em seus dispositivos móveis. Mas e se fosse possível fazer uma oferta personalizada e com um melhor preço ou oferecer serviços com base na geolocalização? E se fosse possível oferecer serviços exclusivos aos clientes mais leais e que geram mais valor para o negócio? Antes, a regra era oferecer promoções a todos os clientes, na esperança de que alguns deles pudessem ter interesse. Com a Internet das Coisas, é possível entender todo esse contexto e saber quando o o cliente precisa de ajuda ou de algum incentivo para realizar a compra, agindo de forma proativa.

5 – Loja Inteligente – Em um shopping center, o tráfego de pessoas pode ser analisado entre vários lojistas, sendo possível entender toda a jornada de compras. Antigamente, era necessário realizar pesquisas para saber se os varejistas estavam atendendo às necessidades dos clientes, e só então eram aplicados os programas de treinamento. Agora, pode-se usar o monitoramento de tráfego para saber se os clientes estão frequentando a área onde está determinado produto. Com isso, basta direcionar um atendente para aquele local ou analisar essa informação posteriormente e verificar a necessidade de algum ajuste no layout da loja, para atrair clientes mais rentáveis. Fazendo isso, é possível personalizar a experiência de compra, abrindo oportunidades para implementar ações de marketing digital ou a oferta de anúncios nos dispositivos móveis.

Com o rápido crescimento das compras online, os varejistas estão muito interessados em trazer a experiência do cliente para dentro de suas lojas físicas. A razão disso é que eles querem ter acesso aos mesmos tipos de dados e análises já usados no varejo digital, com o objetivo de criar novas experiências e coletar novas informações que os ajudem a prever quando os clientes irão comprar novamente.

O diferencial com o uso da Internet das Coisas vem da capacidade do varejista em detectar, entender e trabalhar em cima dos dados e das análises. Para isso, será necessário investir em aplicativos que melhor atendam às demandas dos clientes e que, no fim das contas, gerem valor para o negócio.        

Fonte: Administradores

poradmin_rs

Dez tendências tecnológicas em infraestrutura e operações, segundo o Gartner

Forças externas moldarão a jornada de TI em direção a uma infraestrutura digital em 2018

 

Antigas práticas de infraestrutura e operações (I&O) e arquiteturas de data centers tradicionais não são suficientes para atender às demandas dos novos negócios digitais. A Transformação Digital requer agilidade e velocidade de TI superando arquiteturas e práticas clássicas. Em 2018, a tecnologia será cada vez mais responsável por suportar aplicativos complexos e distribuídos, usando novas tecnologias espalhadas por vários sistemas em vários locais, incluindo data centers locais, na nuvem pública e em fornecedores de hospedagem.

Líderes de I&O devem se concentrar em dez tecnologias e tendências para apoiar a transformação digital de suas empresas. “Essas não são necessariamente as 10 principais tecnologias, nem as melhores tendências em TI, mas sim as 10 tendências que consideramos que terão impacto nas equipes de I&O nos próximos anos. Algumas já estão acontecendo, algumas estão apenas começando, mas cada uma terá um impacto sobre como a TI opera, planeja, aprimora conjuntos de habilidades internas e oferece suporte ao negócio”, diz David Cappuccio, vice-presidente e analista emérito do Gartner. 

Confira!

 Estratégico

 

  1. Planejamento Geográfico –Os fatores externos, incluindo novas leis globais como o Regulamento Geral de Proteção de Dados da União Europeia, as cargas de trabalho de cada região e o acesso à rede global e regional estão levando a TI a gastar mais tempo no planejamento geográfico como parte de suas estratégias de longo prazo. O objetivo em longo prazo não é possuir uma infraestrutura global, mas construir a infraestrutura necessária para suportar o negócio por meio de parceiros, bem como alavancar a infraestrutura de parceiros de uma organização para ajudar a apoiar iniciativas como múltiplas conexões de rede e design e suporte de infraestrutura.
  2. Intelligent Edge –Muitos projetos de negócios digitais criam dados que podem ser processados de forma mais eficiente quando o poder de computação é próximo da coisa ou da pessoa que o gera. As soluções de Edge Computing abordam essa necessidade de poder de computação localizada. Por exemplo, no contexto da Internet de Coisas (IoT), as fontes de geração de dados geralmente são coisas com sensores ou dispositivos embutidos. A era da inteligência serve como a extensão descentralizada das redes de campus, redes celulares, redes de Data Center ou a nuvem. As organizações que embarcaram em uma jornada de negócio digital perceberam que é necessária uma abordagem mais descentralizada para atender aos requisitos de infraestrutura de negócios digitais.
  3. Intent-based Networking (IBNS) – O Gartner prevê que até 2020, mais de mil grandes empresas usarão sistemas de Intent-Based Networking. Intent-based networking (IBNS) não é um produto ou um mercado e sim um software de rede que ajuda a planejar, projetar e implementar/operar redes que podem melhorar a disponibilidade e agilidade das empresas, o que se torna cada vez mais importante à medida em que há a transição das organizações para novos modelos com negócios digitais. Com a IBNS, ao invés de definir explicitamente a rede o que precisa ser feito, o software traduz a intenção do negócio para determinar a “correção” da configuração da rede antes da implantação. O sistema então compara continuamente o estado real e desejado da rede em execução.

 

Tático

  1. Economia de Integração – Um negócio digital é suportado por plataformas tecnológicas em cinco áreas: Sistemas de Informação, Experiência do Cliente, Dados e Análises, IoT e Ecossistemas. A plataforma de tecnologia de ecossistemas apoia a criação e conexão de ecossistemas externos, mercados e comunidades. O gerenciamento da Interface de Desempenho de Aplicativos (API- Application Performance Interface) permite que a plataforma digital funcione. As organizações devem projetar APIs, com base nos requisitos do ecossistema, não “de fora para fora”, com base em aplicativos existentes ou infraestrutura tecnológica. “Certifique-se de que sua organização adote uma ‘primeira API’, projetada com base nos requisitos do ecossistema da sua organização. As APIs projetadas dessa maneira podem ser mapeadas para infraestrutura de tecnologia interna. Esta abordagem é mais eficaz do que simplesmente gerar APIs baseadas em modelos de infraestrutura e dados existentes ” explica Cappuccio.
  2. Reputação e Experiência Digital – Existem duas tendências interligadas que afetam os negócios hoje que não têm nada a ver com a infraestrutura de TI, mas tudo a ver com o design da infraestrutura. O Gerenciamento de Experiência Digital (DEM – Digital Experience Management) é o impacto de apresentar a experiência digital correta aos clientes. A experiência pode ser móvel ou baseada na web, e deve estar sempre disponível, melhorando e executando continuamente de forma rápida e consistente. Se algum desses itens estiverem faltando, a satisfação do cliente corre riscos. Se a satisfação do cliente está em perigo, especialmente no mundo das redes sociais de hoje, a reputação corporativa pode ser prejudicada rapidamente.
  3. Além da TI tradicional, novas realidades – As unidades de negócios exigem agilidade, abrindo novos mercados, assumindo concorrentes emergentes, trazendo novos fornecedores e criando formas inovadoras de interagir com os clientes. Mais de 30% dos gastos atuais em TI não fazem parte do orçamento do setor, mas a responsabilidade geral por apoiar essas novas iniciativas –uma vez que elas são testadas e estabilizadas– residirá com TI tradicional. Gerenciar esses novos provedores, gerenciar fluxos de trabalho e gerenciar novos tipos de ativos neste ambiente híbrido, independentemente de onde eles estão localizados, se tornará crucial para o sucesso da TI.

Operacional

  1. DCaaS como estratégia – Em um mundo perfeito, pelo menos na perspectiva de muitos líderes empresariais, a TI e o centro de dados seriam essencialmente um gerador muito ágil de resultados de serviços, e não o proprietário da infraestrutura. Para fazer isso, as organizações estão criando um modelo de Data Center como Serviço (DCaaS), no qual o papel da TI e do centro de dados é entregar o serviço certo, no ritmo certo, do provedor certo, ao preço certo. “Tomar decisões fundamentais em um curto prazo pode levar a uma estratégia de longo prazo que incorpora o melhor de ‘como um serviço’ e a nuvem, sem comprometer os objetivos globais da TI, tanto para proteger e habilitar o negócio. Desta forma, a TI pode permitir o uso de serviços na nuvem em toda a empresa, mas com foco na escolha do serviço certo, no momento certo, do provedor certo e de tal maneira que o serviço e suporte de TI subjacente não ficar comprometido”, afirma Cappuccio.
  2. Adoção cautelosa da nuvem – Para muitas empresas, migrar para a nuvem é um processo lento e controlado. Os provedores de colocação e hospedagem estabeleceram nuvens privadas ou compartilhadas em suas instalações para fornecer aos clientes alguns serviços básicos, permitindo migrações controladas, treinamento de habilidades de pessoal e um ambiente de nuvem “seguro” como um passo para o aumento da adoção de nuvem no futuro. À medida que os clientes se sentem confortáveis com esses serviços e custos, o aumento das migrações para provedores externos é habilitado através de serviços de interconexão. Usar esse ecossistema parceiro para permitir uma infraestrutura ágil é uma tendência emergente.
  3. Otimização de capacidade – Em todo o lado – As organizações precisam se concentrar na otimização da capacidade e evitar desperdícios – coisas que são pagas, mas que não são realmente usadas. Esse problema pode ser encontrado tanto nos centros de dados de premissa existentes quanto na nuvem. É necessária uma mudança de cultura para corrigir esse problema. As organizações devem aprender a se concentrar não apenas no tempo de atividade e na disponibilidade, mas também na capacidade, na utilização e na densidade. Isso pode prolongar a vida de um Data Center existente e reduzir as despesas operacionais dos fornecedores da nuvem.
  4. Gerenciamento de infraestrutura ampliada – O centro de dados como única fonte de infraestrutura de TI deu lugar a um modelo híbrido de instalações locais, colocação, hospedagem e soluções de nuvem públicas e privadas. Esses elementos estão sendo combinados com um foco no fornecimento de serviços e resultados de negócios, ao invés de um foco na infraestrutura física. As empresas devem aplicar uma “mão firme” para a estratégia e planejamento de TI, de futuro, em toda a empresa, e aplicar proteções apropriadas, ou enfrentar a possibilidade de perder relevância, governança e agilidade empresarial.

 

Fonte: CIO

poradmin_rs

Edge computing é emergência para 2018

Em maio de 2018 entra em vigor na Europa, as novas regras gerais para proteçaõ de dados(GDPR), e muitas empresas temem não terem como cumprir as determinações, pontua estudo da Ixia, empresa especializada em soluções de rede. De acordo com o relatório, proteger dados pessoais é uma tarefa complexa, no contexto em que a rede está por toda parte, como consequência da corrida para a nuvem. 

O uso de nuvens públicas retira os seus dados de seu data center interno e os coloca nas mãos do seu provedor. A ocorrência de violações e adulterações em órgãos de governo trouxe à tona as consequências que uma abordagem descuidada em relação a dados pessoais pode ter. Anos usando senhas ruins e abusando da liberalidade com informações pessoais garantiu que perdêssemos todo o controle sobre nossos dados. A consciência deste problema finalmente atingiu a massa crítica. 

O relatório destaca que, embora seja tarde demais para impedir que o dados escorram por entre nossos dedos, ainda é possível assegurar que os responsáveis por controlá-los se esforcem mais para mantê-los em segurança. Quando se trata de segurança, as ferramentas tecnológicas atuais não são a questão.

Os avanços significativos observados em firewalls, segurança de aplicativos da web e soluções de proteção de redes fez o setor avançar muito, mas o mesmo não aconteceu com o comportamento dos empregados. Ainda existe a presunção de que “o pessoal do TI vai cuidar de tudo” se eu clicar num link ruim ou deixar o acesso ao meu computador aberto para dispositivos sem vigilância.

Edge Computing é a cereja no bolo das nuvens

A nuvem se tornou o principal modelo de TI e as organizações percebem a necessidade de melhorar a segurança de suas nuvens e as soluções para a gestão de desempenho. As soluções “cloud-washed” que foram originalmente projetadas para os data centers simplesmente não dão conta. É necessária uma forma moderna de computação distribuída e descentralizada para agregar valor à nuvem e esse novo modelo se chama edge computing.

Edge computing melhora a eficiência global da nuvem mantendo recursos tecnológicos como computação, armazenamento e redes perto dos usuários. Veremos mais empresas usando padrões projetados para trabalhar nas pontas em suas arquiteturas de infraestrutura para alavancar melhor os benefícios da nuvem, sem sacrificar a velocidade ou a confiabilidade. Acrescentar o elemento de edge computing significará trazer de volta o poder de processamento à rede corporativa para obter resultados mais rápidos que funcionam, mesmo quando a nuvem não funcionar.

A infraestrutura de TI pública vai se tornar o seu trabalho

Os data centers não ficam mais na salinha ao lado do escritório; eles podem nem estar localizados num raio de 150 quilômetros do grande escritório mais próximo, sem falar nas filiais remotas. Os trabalhadores em casa e os guerreiros de estrada constituem uma porcentagem cada vez maior da força de trabalho – o que significa que tarefas diárias dependem de servidores e redes que não pertencem a sua empresa, o que provoca situações complicadas, como por exemplo, a interrupção da AWS em março deste ano, em que uma interrupção de um único data center de nuvem da Amazon derrubou vários grandes serviços online, tais como Quora, Business Insider e partes da Slack. 

Muitas organizações compraram o modelo de nuvem hiperdimensionado e ficarão à mercê desses provedores para sustentar a disponibilidade que eles precisam. As equipes de TI precisam estabelecer mais controle sobre o tráfego de dados na nuvem para evitar qualquer violação na experiência de segurança e proteção de seus clientes e na produtividade dos empregados. Eles vão precisar estabelecer maior visibilidade em suas nuvens, à medida que as nuvens se tornam o modo dominante de comunicação e processamento.

Fonte: Convergência Digital