Author Archives: admin_rs

Byadmin_rs

Computação em nuvem já é realidade para a Inteligência dos Negócios

O valor que a computação em nuvem vem proporcionando às organizações vem aumentando e se tornando um motivador de peso para a decisão pela mudança

Os gestores financeiros estão cada vez mais acostumados com a computação em nuvem. Inúmeras ferramentas de gestão já podem ser acionadas remotamente, incluindo via dispositivos móveis. E a tendência é esta: a nuvem cada vez mais terá predomínio para a oferta de aplicações para o Corporate Performance Management, CPM. Ela já é uma realidade.

Recente trabalho do BPM Partners, o “Performance Management Study: Spotlighton Cloudand Mobile”, comprova isso e revela que plataformas de CPM tem uso pesado também nas pequenas e médias empresas, o que demonstra que este valioso recurso deixou de ser restrito às grandes corporações.

O estudo do BPM Partners traz números que mostram esta mudança acentuada para a computação em nuvem: mais de 60% dos 300 profissionais de finanças ouvidos, afirmam que considerariam optar por soluções baseadas em nuvem para a gestão de desempenho. Nota-se claramente que a computação em nuvem começa a ter a maioria das opções na hora da escolha, em ralação às aplicações on premise.

Quase 90% dos departamentos de finanças conduzem seus projetos CPM com base na colaboração e interatividade, o que, segundo o relatório, sinaliza uma crescente demanda por soluções baseadas em nuvem, que são as que mais possuem esta capacidade. Outros 75% dos entrevistados disseram que eles já usam pelo menos um aplicativo em nuvem durante seus trabalhos diários.

Quase a metade, 47%, afirmou que a mudança para a computação em nuvem é uma prioridade para sua organização, ou já estão em processo de migração.

Mesmo que a maioria das companhias ainda não estejam na nuvem, a movimentação apontada pelo trabalho da BPM Partners sinaliza que em breve este será o futuro delas. Os resultados obtidos pelas organizações que fizeram a mudança servirão de motivação para as demais. E mesmo dentro de uma companhia, uma vez feita a mudança, torna-se mais fácil levar esta nova cultura para outros departamentos.

O valor que a computação em nuvem vem proporcionando às organizações vem aumentando e se tornando um motivador de peso para a decisão pela mudança. A questão da segurança dos dados vem sendo superada e já não se coloca como obstáculo para as empresas.

E quando falamos em nuvem, também estamos falando em mobilidade, uma vez que os dados não estão todos armazenados no dispositivo. Na verdade, o aparelho móvel é uma aplicação de interface com a solução BPM que está em nuvem. E os executivos de finanças caminham para a mobilidade.

Seguindo o estudo do BPM Partners, 40% dos entrevistados admitem ter necessidade de acesso móvel à sua aplicação de gestão ou de BPM em cloud. Esta demanda para o acesso móvel vem de executivos seniores que gostam de apurar o que foi realizado sobre o que foi planejado, seguindo o relatório. Este, de fato, é um novo motivador que fará cada vez mais com que as organizações pensem na mudança. Com a nuvem, seus executivos, equipes e o alto escalão podem ter acesso rápido, de qualquer lugar e a qualquer hora aos resultados a partir da combinação mobilidade e computação em nuvem. Entre estes executivos que têm a necessidade de acesso móvel, mais de 70% querem acesso a painéis ou relatórios.

Outro benefício
O relatório da BPM Partners reforma uma movimentação sentida por nós nos últimos anos: cada vez mais as organizações de vários segmentos e tamanhos estão enxergando as vantagens da computação em nuvem no processo de elaboração dos planos de negócios e orçamentos: a colaboração entre equipes, o acesso em tempo real aos dados, redução dos custos e disponibilidade real das aplicações.

Outro grande benefício de uma aplicação em nuvem, segundo relato dos entrevistados para este estudo, mais da metade deles pretendem promover possíveis alterações mensais ao planejamento, graças às facilidades que a computação em nuvem proporciona. Antes, em uma aplicação on premise ou em planilhas eletrônicas esta agilidade era impossível, segundo eles.

Fonte: CIO

Byadmin_rs

O Marco Civil e o Big Data

Mais do que nunca, o treinamento, conscientização e fiscalização dos funcionários terá papel fundamental

 

Em outubro de 2006 o Netflix lançou o “Prêmio Netflix”, em que disponibilizava informações sobre hábitos de 500 mil consumidores, oferecendo US$ 1 milhão para quem desenvolvesse uma solução capaz de melhorar em 10% o sistema de recomendação de filmes. Ainda que os dados pessoais tivessem sido omitidos – anonimizados – as informações lançadas na rede para análise no concurso levaram à identificação precisa de pelo menos um usuário: uma lésbica não assumida na conservadora região do Meio Oeste dos Estados Unidos, que, tendo a privacidade ameaçada, processou o Netflix sob o pseudônimo de “Jane Doe”.

O caso acima, narrado no livro “Big Data – Como Extrair Volume, Variedade, Velocidade e Valor da Avalanche de Informação Cotidiana”, de Viktor Mayer-schönberger e Kenneth Cukier (Elsevier, 2013), demonstra que nem mesmo a anonimização de dados é capaz de proteger a privacidade dos cidadãos. Como afirmam os próprios autores, “Na era do big data, as três principais estratégias usadas para garantir a privacidade – consentimento individual, opção de exclusão e anonimização – perderam a eficiência.”

Este grande volume de dados, referido pelo termo big data, é hoje coletado e analisado com velocidade e qualidade graças à inovação tecnológica dos últimos anos. Não apenas dados pessoais, mas também fatores da natureza, dados geográficos, fatos históricos e informações científicas podem ser combinados, estudados e aplicados para as mais diversas finalidades.

Trata-se de um fenômeno recente, que se tornou possível com o aprimoramento das técnicas de coleta e armazenamento em meios digitais. Com o desenvolvimento de novas ferramentas de análise, a informação passou a auxiliar na tomada de decisões, e adquiriu valor econômico. Dados deixam de ser apenas dados e tornaram-se commodity. Em um exemplo prático, informações sobre o comportamento de consumidores podem ser usadas para a melhoria de um serviço, ou no desenvolvimento de um produto novo.

O caso do Netflix ilustra o problema que começa a existir quando a informação se torna acessível ilimitadamente. Na era dos sensores, em que tudo pode ser monitorado, nem a anonimização protegerá a privacidade. Cidadãos podem ter hábitos e comportamentos expostos. Assim, empresas responsáveis pela coleta e análise de dados devem ter atenção redobrada, principalmente após a aprovação do Marco Civil da Internet no Brasil (Lei nº 12.965/2014).

Primeiro, porque o uso de informações obtidas de usuários na internet deve respeitar as exigências previstas no artigo 7º da nova lei. O dispositivo determina que a coleta, uso, guarda e tratamento de dados pessoais podem ser feitas apenas se houver consentimento expresso do usuário, que deve ser advertido por cláusula destacada nos termos de uso.

Na prática, significa que, ao utilizar um aplicativo ou um serviço online (que pode ser uma rede social), o usuário deverá ser informado expressamente sobre a coleta, e consentir com o uso dos seus dados para posterior análise.

Assim, empresas que obtém informações de usuários de fontes indiretas, que foram capturadas por outros serviços, devem ter ainda mais cuidado. Isso ocorre, principalmente, com cadastros que são feitos a partir do perfil do usuário numa rede social, ou com empresas que têm acesso a bancos de dados de outros serviços. A empresa que utilizar os dados deverá estar segura de que a coleta foi feita de acordo com o que determina a nova lei, e de que o usuário está ciente da cessão de suas informações.

Com isso, a adesão do usuário terá que ser clara e inequívoca. Os termos de uso terão que ser aprimorados, pois o uso de uma linguagem objetiva é agora uma exigência legal. Ainda, termos em inglês devem ser traduzidos para usuários brasileiros.

O Marco Civil traz também determinações importantes para os provedores estrangeiros, exigindo que todos os serviços e aplicativos acessados por usuários brasileiros estejam em conformidade com a lei (compliance). Foram previstas uma série de sanções para eventual descumprimento, que pode levar até à suspensão das atividades no Brasil.

Além da preocupação dos portais e provedores que coletam estes dados, também empresas responsáveis pela guarda e análise devem ficar atentas, principalmente quanto às medidas de segurança adotadas. A punição para o vazamento de informações pessoais encontra amparo não apenas no Marco Civil, recém aprovado, mas também no Código Civil, na forma de indenização (art. 927). Considerando-se que o tempo médio para a detecção de falhas de segurança nas empresas é de dez horas, o prejuízo poderá tornar-se irreversível, acarretando indenizações milionárias.

Ainda, as empresas são responsáveis pelos atos ou omissões praticadas por empregados e colaboradores. Assim, em caso de vazamento ou uso indevido de informações por culpa ou dolo de funcionário, a empresa responde de forma objetiva (artigo 932, III, do Código Civil).

Mais do que nunca, o treinamento, conscientização e fiscalização dos funcionários para o uso de ferramentas de TI, bem como a implantação de políticas e normas de segurança pela empresa, terá papel fundamental.

A preocupação jurídica com a adoção de soluções de big data concentra-se, assim, em duas questões fundamentais. Primeiro, na origem das informações obtidas: se a forma de coleta, guarda e uso de dados cumpre as prescrições do Marco Civil. Segundo, se na guarda destes dados são adotadas medidas e soluções de segurança eficazes, que protejam contra vazamentos ou acessos indevidos.

Fonte: CIO

Byadmin_rs

Mais de 75% dos incidentes de segurança têm como alvo cinco setores, diz pesquisa da IBM

E ainda setores de saúde, farmacêutico e comunicações batem recorde de custo por incidente de segurança em 2013

O panorama da segurança da informação se repete há alguns anos, e ainda assim, é um grande desafio para gestores. Fica evidente no estudo IBM Securtity Services 2013 que alguns setores são alvos preferidos de cibercriminosos – cinco deles concentram mais de 75% dos ataques. São eles o setor financeiro (23,8%), manufatura (21,7%), informação e comunicação (18,6%), varejo (6,2%) e saúde (5,8).

 

Esse padrão se repete desde 2012, com a única diferença que eles se alternam nas posições.

 

Para os setores de saúde, financeiro, farmacêutico e comunicações, houve um recorde de custo por brecha, de US$ 177 a US$ 359 bem acima da média de US$ 145. Além disso, varejistas e organizações de setor público também bateram recorde nesse índice, ainda que bem menor que os outros (entre US$ 105 e US$ 100 por evento).

 

Ainda assim, fica evidente a combinação de agentes internos e externos a ataques, com 22% das ocorrências. Mesmo que atrás dos terceiros (56%), o estudo alerta para a alta constante das ações combinadas.

 

Entre as categorias de incidentes, códigos maliciosos são as mais comuns, com 38% dos incidentes – agregando softwares trojan, phishing, entre outros. Já scan foram detectados em 20% dos casos, seguido de acesso não autorizado, com 19%. Esse último, inclusive, foi mais prevalente no ano passado, com alta de 6% em relação à medição anterior.

 

Uma nova realidade

 

O crime organizado, ativismo digital, governos e adversários são motivados por ganhos financeiros, política e notoriamente irão atacar ativos valiosos. “Essas operações são bem financiadas e funcionam como negócios. Quem ataca pacientemente avalia os alvos com base no potencial de esforço e recompensa. Seus métodos são extremamente direcionados, eles usam mídias sociais e outros pontos de entrada para derrubar pessoas e ganhar acesso, tirar vantagem da confiança e explorar vulnerabilidades”, descreve o estudo.

 

E, enquanto isso, funcionários negligentes colocam o negócio em risco devido ao erro humano. Mais de 95% dos incidentes de segurança registrados pela IBM em 2013 estavam relacionados às ações humanas. Clicar em anexos infectados ou em hyperlinks inseguros foi o erro mais comum.

 

O levantamento foi conduzido no ano passado com base em mais de mil clientes dos serviços de segurança da IBM, em 133 países.

 

Fonte: IT Forum

Byadmin_rs

Internet das Coisas na sala de aula

A Internet das Coisas é o fundamento de uma parceria entre a Telefônica Vivo e o Instituto Mauá de Tecnologia. Durante todo este ano, alunos do curso de Engenharia de Controle e Automação, matriculados na disciplina eletiva “Programação de Interfaces com Dispositivos Móveis” estão aprendendo a programar celulares e a fazer a interação das aplicações com objetos.

A iniciativa faz parte de uma parceria entre o Centro de Inovação da Telefônica Vivo e a instituição de ensino superior, com a finalidade de preparar os futuros engenheiros para interagirem com a nova onda da web, a Internet das Coisas. As aulas são ministradas tanto por profissionais do Centro de Inovação da empresa quanto por docentes da Mauá, o que proporciona uma troca de conhecimento dos alunos com profissionais do mercado.

“A Telefônica Vivo está empenhada em construir caminhos dentro da nova tendência mundial da Internet das Coisas e, para isso, estamos criando um ecossistema de desenvolvimento de soluções que inclui a ponta de lança da inovação, que é a universidade”, explica Pablo Larrieux, diretor do Centro de Inovação da empresa. Segundo ele, a próxima onda de crescimento da Internet será originada pela conectividade de coisas, objetos e sensores, que darão nova vida e funções aos elementos cotidianos que conhecemos hoje.

Para o professor do Instituto Mauá de Tecnologia, Anderson Harayashiki Moreira, no futuro será possível que os objetos criem facilidades a partir da automatização de diversas tarefas e trocas de informações. “Do ponto de vista dos negócios, muita coisa poderá mudar e esta parceria entre a Mauá e a Telefônica Vivo é uma ótima oportunidade para capacitar os alunos que já possuem um perfil empreendedor a desenvolverem soluções tecnológicas que venham a se tornar possíveis startups”.

Fonte: Convergência Digital

Byadmin_rs

Internet das Coisas precisará de uma nova arquitetura

Modelo atual não está pronto para o tamanho que a IoT deverá atingir e algumas mudanças serão necessárias para atingir as expectativas.

As previsões que vem sendo anunciadas sobre a Internet das Coisas (IoT, na sigla em inglês), onde bilhões de dispositivos vão compartilhar informações e completar tarefas para melhorar a eficiência da vida cotidiana, dependem do acesso à internet atingir uma escala mundial. Infelizmente, a arquitetura atual não atende às necessidades que a IoT irá demandar.

Segundo o Gartner, em um futuro próximo, o número de dispositivos conectados a partir do conceito de Internet das Coisas irá chegar a 26 bilhões, produzindo US$ 300 bilhões em receitas. Alguns dos dispositivos que serão parte da IoT incluem sensores e atuadores em cidades inteligentes, tags inteligentes em diversos objetos familiares, sensores vestíveis de monitoramento da saúde, smartphones, carros e aplicações domésticas inteligentes. A IoT irá integrar vários tipos de robôs domésticos, drones e até robôs voadores extremamente pequenos. As mudanças no nosso cotidiano serão imensas. Como exemplo, a IoT irá conduzir um gerenciamento mais preciso e sustentável de força e distribuição de água em cidades inteligentes e trazer melhorias no cuidado com a saúde, como a interrupção da propagação de doenças epidêmicas.

 

Entretanto, a tecnologia de hoje não está pronta para ser aplicada na escala massiva e dinâmica que a IoT necessita no futuro, considerando a enorme quantidade de dados transmitidos do mundo físico e o novo padrão de comunicação que ela cria. Nós precisamos de novas programações, capacidade de entrega e abordagens de gerenciamento de rede. O que virá a seguir será uma proposta, de um framework ainda em desenvolvimento para uma arquitetura global de IoT.

 

Um problema predominante com as arquiteturas IoT existentes é que elas foram projetadas para pequenas ilhas de IoT – redes paralelas, assim como um operador de usina de energia puxando dados de “uma turbina – em protocolos proprietários. Essas “coisas” implantadas de maneira ampla coisas não podem colaborar de forma dinâmica entre essas “ilhas” para executar tarefas distribuídas que envolvem detecção, acionamento e computação.

 

Então, como podemos avançar o atual estado da IoT para atingir seu verdadeiro potencial? O caminho é repensar a inteligência embutida na arquitetura IoT.

 

Em conjunto com o National Institute of Informatics (NII, na sigla), do Japão, foi feita uma pesquisa sobre como alavancar tecnologias de cloud computing e Redes Definidas por Software (SDN, na sigla em inglês) para promover efetivamente e eficientemente a distribuição para serviços IoT. A investigação me levou a acreditar que o futuro da IoT deveria se desenvolver organicamente no topo da internet existente e implementar uma nova arquitetura de distribuição inteligente chamada 3DIA – uma “arquitetura de distribuição inteligente” de três camadas.

 

A 3DIA é baseada em três princípios:

 

•              Executar distribuição dos serviços IoT

•              Redes IoT inspiradas por princípios SDN

•              Suporte penetrante na nuvem para IoT

 

Ao implementar a 3DIA, dispositivos IoT estarão habilitados para executar distribuição sensitiva e serviços de computador com ajuda da nuvem, que pode encaminhar os problemas relatados para avaliação, limitação de recursos, bandwidth, latência e gerenciamento.

 

Três camadas de uma internet global

 

A 3DIA é dividida em três níveis: inteligência global, inteligência regional e inteligência local. Alguns esforços enfrentaram as questões da IoT nas camadas regionais e locais.

 

Global: A camada do topo fornece inteligência global na nuvem para serviços escaláveis, gerenciamento de internet, programação de serviços e interação de dispositivos. Por exemplo, esta camada iria permitir uma coordenação global entre dispositivos IoT em uma cidade grande (ativos de utilidade pública ou pertencentes a indivíduos, por exemplo) e para uma execução de distribuição de serviços eficiente. Atualmente, isso não é possível por causa das diferentes redes de IoT, que não interagem entre si. Além disso, a camada global iria simplificar as interações entre usuários e serviços através do fornecimento de um serviço altamente disponível na ponta através da nuvem. O problema inseparável da distribuição natural de serviços, tal como falha de dispositivos ou quedas de conexão devido à mobilidade, deveriam ser transparentes para usuários que interagem com esse serviço na ponta.

 

Regional: A camada do meio fornece inteligência regional para manusear as dinâmicas IoT de forma efetiva, engenharias de tráfego de internet e alocação de recursos wireless, os quais são implementados em acessos a redes wireless que estejam aprimoradas com computação e recursos de armazenamento para formar um novo tipo de infraestrutura de nuvem permissiva. Nós chamamos isso de “stratus clouds”. Essa camada iria, por exemplo, fornecer gerenciamento efetivo de recursos dependentes de localização. Um exemplo típico de tais recursos são os escassos recursos de radiofonia, que tem uma forte dependência no local. Neste caso, a “stratus cloud’ irá operar protocolos SDR que irão ajudar na alocação de espectros de radio. Como exemplo, isto poderia ser útil em um cenário de desastre onde muitos usuários iriam aglomerar certas regiões tentando evacuar, sendo necessárias alocações de espectro eficientes para evitar interferências. A “stratus cloud” permitiriam o desenvolvimento deste tipo de software de gerenciamento regional de IoT.

 

Local: A camada inferior fornece inteligência local, que consiste em softwares operando em dipositivos IoT para deixar que eles interajam com a stratus cloud e com outros nós para entregar serviços IoT escaláveis, assim como para interagir com toda a infraestrutura de nuvem para redes de contatos eficientes, entrega de conteúdo e alocação de recursos wireless. Esta última camada consiste em elementos físicos do ambiente, tais como smartphones, veículos inteligentes e computadores. Um exemplo de suas funções é formar redes ad hoc inteligentes entre dispositivos IoT quando tais redes são necessárias em situações como desastres naturais.

 

Nós estamos trabalhando atualmente para construir um protótipo de 3DIA. Para obter sucesso, essa arquitetura precisa de controles SDN na nuvem global e na stratus cloud para fornecer suporte às redes de contato. Esses controles irão manipular todas as decisões relacionadas à comunicação dispositivo para dispositivo, tais como roteamento, agendamento de tráfego e redes ad hoc em relação às decisões de comunicação de internet. Como os controles SDN são processos operando em máquinas virtuais na nuvem, elas podem ser facilmente escaláveis para cima ou para baixo e movidas entre diferentes locações na nuvem para seguir os potenciais dispositivos IoT móveis ou de usuários. Idealmente, a escalabilidade IoT poderia ser preservada mesmo para um substancial número de dispositivos.

 

Questões que não podemos responder

 

Na pesquisa, ainda existem questões que não foram respondidas. Por exemplo, como a arquitetura de três camadas pode funcionar sem problemas sobre diferentes tecnologias de acesso por rádio, enquanto minimiza interferências e poder de consumo?

 

Podemos criar caminhos mais inteligentes para dispositivos visando uma conexão espontânea através de arquiteturas IoT, para que serviços IoT dinâmicos possam ser criados sob demanda?

 

Como é possível compartilhar dispositivos concorrentes entre múltiplos serviços enquanto damos prioridade para serviços em tempo real sem atrasar outros?

 

E como gerenciamos a privacidade em uma IoT massiva, composta por dispositivos pertencentes a várias organizações e indivíduos?

 

Embora ainda estejam pesquisando por respostas para cumprir as expectativas propostas para a IoT até 2020, onde bilhões de dispositivos estão se comunicando sem problemas e solucionando muitas das ineficiências do cotidiano, está claro que uma arquitetura IoT mais inteligente é necessária. A abordagem busca embutir mais inteligência na arquitetura na forma de recursos na nuvem e de redes definidas por software (SDN, na sigla em inglês).

 

Assim como as cidades inteligentes que nós esperamos criar a partir da IoT, a arquitetura 3DIA pode ser incrementalmente implantada sobre a internet atual. Portanto, ela pode ser prototipada rapidamente e amplamente adotada pela indústria. Nós acreditamos que este objetivo está ao nosso alcance.

 

Fonte: IT Forum 

Byadmin_rs

Equipe de dados: cinco passos para montar um time de sucesso

Além dos cientistas de dados, as empresas que querem ganhar mais competitividade devem construir uma força de trabalho dirigida por dados.

Os dados são a força vital das organizações. Na Europa, por exemplo, um banco de varejo tem gerado um aumento médio de 500% nas vendas oriundas de suas campanhas de marketing por meio da segmentação da base de consumidores através do uso de análises avançadas, determinando quais produtos oferecer a cada segmento. Para encontrar e decifrar esse tipo de vantagem competitiva direcionada pelos dados, contudo, os líderes de negócios devem desenvolver um time especialista em dados.
Estamos começando a ver uma transição para uma força de trabalho dirigida por dados, na qual alguns papéis tradicionais desempenham extrema importância e novos papéis têm surgido para suprir a necessidade de gerenciar e explorar completamente os dados.
Aqui estão cinco passos essenciais para seguir se você quer construir uma organização dirigida por dados:
Chief Data Officer (ou gerente de dados): o CDO está se tornando cada vez mais importante à medida que as companhias têm considerado os dados como ativos. Uma pesquisa da Accenture aponta que dois terços das organizações escolhem uma figura sênior para ser o chief data officer responsável por liderar o gerenciamento de dados e análises em seus negócios.
Administrador de dados: ele mantém a qualidade, disponibilidade e segurança dos dados e busca melhorar a coleta e apresentação dos dados para os negócios.
Cientista de dados: os cientistas de dados constroem modelos analíticos e algoritmos. Esse papel foi apontado como a “profissão mais sexy do século 21” pela Harvard Business Review, mas ainda é muito difícil encontrar esses profissionais no mercado.
Especialista em análise: é responsável por liderar iniciativas de analytics do ponto de vista de quem domina o negócio. Ele entende qual é o valor por trás de um insight e desafia a TI a expor mais dados para análise.
Usuários de negócios: eles representam cerca de 70 a 80% da força de trabalho. Aplicam os resultados dos modelos analíticos e impulsionam o trabalho da TI e as equipes de dados.
No entanto, poucas empresas já possuem essa força de trabalho estruturada, e encontram dificuldades quanto a disponibilidade de talentos em análises. Dessa maneira, listamos aqui algumas recomendações para desenvolver essas habilidades:
– Adote uma abordagem de equipe. Crie um time de pessoas que individualmente podem não ter todas as capacidades de um cientista de dados mas que, em grupo, oferecem as habilidades necessárias.
– Amplie o campo de recrutamento. Busque esses profissionais fora de sua indústria, e até mesmo fora do mundo dos negócios. Por exemplo, designers gráficos muitas vezes conseguem oferecer mais criatividade e uma visão imaginativa na visualização de dados.
– Foco no aprendizado do time. É essencial estimular os membros a aprender habilidades com outros membros do grupo. Quando um membro não estiver disponível, outros poderão ajudar na situação, o que cria uma unidade mais resistente a atritos.
Próximo passo: melhores perguntas, melhores tecnologias.
Possuir as pessoas certas e todos esses especialistas não é o suficiente. Para inovar, todos os papéis de uma companhia – de administradores de dados a usuários de negócios – precisam ser interrogadores dos dados.
As empresas não podem se satisfazer simplesmente em perguntar “O que aconteceu?”. Ao invés disso, precisam insistir em alcançar perguntas de níveis mais altos – como “Por que e como isso aconteceu?” – para identificar oportunidades de crescimento.

 

Fonte: IT Forum

 

Byadmin_rs

ASUG Day – Recife 2011

A ASUG Brasil realizou no dia 13 de setembro de 2011 o primeiro ASUG Day na cidade de Recife.
O evento movimentou a capital pernambucana, trazendo as últimas tendências do mundo da TI, com palestras atuais, a apresentação de novas funcionalidades de soluções utilizadas diariamente dentro das empresas.
Para quem foi em busca de novos contatos, o evento serviu como uma excelente oportunidade, pois reuniu no mesmo espaço alguns dos profissionais mais importantes da área, e trouxe conteúdo valioso sobre as vertentes mais importantes do segmento na atualidade.

Byadmin_rs

Mudança na arquitetura transforma perfil do profissional de infra

De acordo com o Gartner, pelo menos 80% das empresas terão dificuldade de encontrar profissionais de TI com o perfil adequado para atender demanda de infraestrutura mais ágil.

À medida que demanda por infraestruturas ágeis aumenta, por conseguinte, será maior a necessidade das empresas por profissionais de infraestrutura e operações com conhecimentos de gestão de performance.

A abordagem web-scale, termo utilizado pelo Gartner para definir o padrão de computação aplicado por grandes fornecedores de serviços na nuvem, como Amazon, Google e Facebook, será cada vez mais comum no ambiente empresarial de TI nos próximos anos. A empresa de consultoria e pesquisa em TI aponta que até 2017 essa arquitetura estará presente em metade das companhias globais, contra 10% em 2013.

O termo “escala” está mais relacionado à velocidade do que a tamanho, indicando que as empresas precisam imitar as arquiteturas, processos e práticas destes fornecedores se quiserem manter o ritmo de crescimento, de acordo com o Garnter.

Enquanto terão que manter e sustentar suas habilidades de planejamento de capacidade convencionais e ferramentas, as grandes organizações ainda deverão reavaliar regularmente as ferramentas disponíveis, e fazer um esforço especial para adquirir e aperfeiçoar conhecimentos e habilidades de gerenciamento de desempenho, aponta a empresa de pesquisa e consultoria.

Assim, a consultoria estima que até 2016 a dificuldade de encontrar profissionais com essas competências de gestão de desempenho para arquiteturas em escala horizontal será enfrentada por 80% das grandes empresas.

Considerando essa oportunidade para os arquitetos de TI, o analista e diretor de pesquisa Ian Head afirma que será preciso aderir plenamente às arquitetura de aplicação e escalar horizontalmente as arquiteturas de infraestrutura para tirar proveito da web-scale.

Em geral, as ferramentas de computação in-memory e de análises são usadas ​​para extrair as informações necessárias a partir de uma combinação das ferramentas de monitoramento de infraestrutura e da instrumentação construída nas aplicações. Desse modo, a informação analítica resultante é aplicada para gerar ações proativas e em tempo real para alocar recursos e gerenciar possíveis gargalos. O Gartner ressalta que funcionalidades semelhantes também serão utilizadas para modelar o impacto de movimentações de fluxos de trabalho e para simular os efeitos de mudanças de infraestrutura e aplicações potenciais.

Essas capacidades de adequar as demandas em tempo real serão imprescindíveis, juntamente com as ferramentas, na abordagem web-scale. Contudo, a maioria dos profissionais de TI ainda não estão preparados para lidar com essa mudança nas organizações.

Fonte: IT Web

Byadmin_rs

PC Sistemas lança solução de auditoria eletrônica

Para garantir um ciclo de melhorias contínuas nos processos organizacionais das empresas, a PC Sistemas, lança, na APAS 2014, em São Paulo, o myAudit, solução de auditoria eletrônica capaz de diagnosticar gargalos ou desvios nas rotinas operacionais. Além disso, a ferramenta está apta para reagir com velocidade aos diagnósticos apurados, propondo planos eficientes para contornar as situações encontradas. Com a solução, a companhia objetiva fornecer aos clientes informações de fácil acesso sobre irregularidades nas operações, garantindo, assim, a qualidade dos processos produtivos da empresa. O sistema é totalmente integrado ao WinThor, ERP carro-chefe da PC Sistemas, e possibilita acesso às informações através de diferentes dispositivos móveis, sejam em plataforma iOS ou Android. Além disso, ele disponibiliza ao usuário uma série de recursos para a implantação de novos processos e de abertura de planos de ação. Tudo para garantir a utilização das melhores práticas em todas as áreas da empresa, consolidando uma importante ferramenta para impulsionar os seus negócios. Resultados bastante significativos já foram alcançados através dos diagnósticos gerados pelo myAudit, como, por exemplo, a redução de 15 mil reais em um único recolhimento de PIS e COFINS, devido a erros detectados tanto na composição do cálculo da base de crédito, quanto em débitos indevidos nas operações de saída da empresa. Outros casos de falhas apuradas pelo myAudit podem ser citados, como o recolhimento de ICMS em duplicidade, que ocasionava na perda de 18 mil reais por mês, e erros no gerenciamento do estoque, que acarretavam na perda de páletes inteiros de produto.

Fonte: TI Inside Online

 

Byadmin_rs

Fórum Banrisul discute adoção de Bitcoin como meio de pagamento

Começa nesta quarta-feira, 7, em Porto Alegre, o 7º Fórum Internacional de TI Banrisul, cujo objetivo é discutir as tendências de mercado, explorando os diversos aspectos e visões de temas contemporâneos de relevância. Um dos destaques dessa edição será a palestra sobre Bitcoin como meio de pagamento, que está despertando controvérsias em relação a sua adoção e segurança das transações.

Segundo Elizabeth Ploshay, que faz parte do Conselho de Diretores da Bitcoin Foundation e Communication Manager na Bitcoin Mazagine, que fará sua palestra na quinta-feira, 8, a adoção do Bitcoin é uma opção para os países que tem uma grande parte da população desbancarizada, como os situados na África e Ásia, que podem receber recursos através de uma plataforma Open Source, sem interferência de regulamentações, com toda a segurança, já que as transações são criptografadas.

Ela vai falar sobre os avanços que o Bitcoin, inicialmente uma moeda de um grupo restrito de pessoas, que atualmente está se transformando em um meio de pagamento aceito por muitos segmentos de mercado e na pauta de diversos governos ao redor do mundo, inclusive no Brasil.

A executiva vai discutir ainda no Fórum a situação atual e futura desse meio de pagamento, questões legais, de segurança e possíveis fraudes.

Fonte: TI Inside Online