segunda-feira, 31 de março de 2014

Para não ter medo do imprevisto.

10 passos para montar um bom plano de contingência

(http://cio.com.br/opiniao/2014/03/26/10-passos-para-montar-um-bom-plano-de-contingencia)
Adriano Filadoro *
Publicada em 26 de março de 2014 às 09h19

Envolve mais do que um backup e armazenamento de informações num lugar fora do ambiente físico da empresa, pode ter certeza

A maioria dos negócios, hoje em dia, depende de Tecnologia da Informação e de sistemas automatizados. Para algumas empresas, ficar “fora do ar” por algumas horas pode significar perdas incomensuráveis. Tudo depende do perfil do negócio e do quanto suas atividades estão diretamente ligadas às propriedades web e aos serviços online. De todo modo, qualquer que seja o tempo de paralização, sempre há prejuízo financeiro em caso de desastres naturais, desastres provocados, ou fraudes. Daí a importância de poder contar com uma equipe que concretamente atue na prevenção desse tipo de crise e consiga detectar e resolver problemas no menor prazo possível.

A virtude mais importante, então, é ter expertise necessária para elaborar e colocar rapidamente em ação um plano que reduza os desdobramentos da interrupção de funções críticas e recupere essas operações.

Seguem 10 passos para montar um bom plano de contingência:

1. Conquistar a adesão da chefia. Gerentes, supervisores e diretores devem zelar para que todas as ações planejadas sejam colocadas em prática, determinando o que cada grupo deve fazer, em que prazo e a que custo. Esse envolvimento e comprometimento são fundamentais.

2. Montar uma equipe de gestão de crise. A formação do comitê deve levar em consideração características pessoais e profissionais necessárias para cada desafio. Entre as pessoas-chave estão o gerente operacional e o gerente de processamento de dados. Esse grupo deve estar apto a determinar as ações necessárias.

3. Desenvolver uma “análise de risco”. O comitê deve preparar uma análise de risco que inclui o impacto nos negócios em caso de desastres naturais, técnicos e humanos. Além dos desdobramentos para os negócios, essa análise também deve contemplar a segurança de registros vitais para a empresa, bem como documentos críticos. Trata-se de uma medida fundamental para reduzir prejuízos em face do inevitável.

4. Estabelecer prioridades. Tudo o que é crítico dentro de cada departamento deve ser cuidadosamente analisado e classificado como ‘essencial’, ‘importante’, ‘não essencial’. Principalmente o que diz respeito ao operacional, recursos humanos, sistemas de informação, serviço, documentação em geral (contratos, impostos etc.), registros vitais, além de políticas internas e procedimentos.

5. Determinar estratégias de recuperação. Alternativas fáceis de serem colocadas em prática devem ser avaliadas sob aspectos importantes: serviços, hardware, software, comunicação, pastas/dados, serviços on demand, sistemas e operações diversas. Essas alternativas dependem de uma criteriosa avaliação das funções do computador: site, hotsite, data centers, parque tecnológico, centro de serviços, ferramenta de vendas, arranjo de consórcio etc. É fundamental estabelecer um acordo que contemple: duração, testes, custos, procedimentos especiais de segurança, notificações de mudanças, horas destinadas à operação, equipamentos necessários, requisições profissionais, circunstâncias de emergência, possibilidade de prorrogação do contrato, garantia de compatibilidade, viabilidade, prioridades etc.

6. Avaliar o desempenho da coleta de dados. Isso inclui estar em dia com lista de backup, contatos telefônicos de pessoas-chave, registro de distribuição, inventário de comunicação, de documentação, de equipamentos, de contratos, de apólices de seguro, de hardware, dos fornecedores, dos clientes, do escritório, local de armazenamento externo, horários do serviço de backup, especificações do local temporário e outros materiais/documentos.

7. Preparar um documento descritivo. É importante preparar um documento que descreva em detalhes os procedimentos a serem tomados. Obviamente, a alta gerência deve revisar e aprovar o plano de contingência. Essa medida, embora simples, ajuda a organizar e conferir todos os procedimentos que devem ser tomados, identifica as principais etapas do processo, os procedimentos redundantes, e contribui com um ‘guia’ para o desenvolvimento dos procedimentos. Também é importante incluir a atualização do plano, a fim de contemplar qualquer mudança significativa interna, externa ou nos sistemas.

8. Desenvolver procedimentos-padrão para testes. É essencial que o plano de recuperação de desastres seja testado numa base realista ao menos uma vez por ano. O teste poderá comprovar para a alta direção que a empresa está segura ou, eventualmente, apontar quesitos que devem ser aperfeiçoados.

9. Fazer um checklist e testar cada item. Antes de concluir o plano de contingência, é necessário avaliar o papel de cada área numa cena de emergência, até a simulação de interrupção dos serviços.

10. Aprovar o plano. Uma vez que o plano foi elaborado e devidamente testado, é hora de aprová-lo junto à alta gerência – que deverá estabelecer políticas, procedimentos e responsabilidades de cada etapa do plano de contingência – além de atualizá-lo anualmente, fazendo todos os ajustes necessários.

Em resumo, o plano de recuperação de desastres envolve mais do que um backup e armazenamento de informações num lugar fora do ambiente físico da empresa.

O plano tem de incluir procedimentos testados e documentados que devem ser seguidos à risca e revisados periodicamente – ainda que nunca tenha sido necessário lançar mão dele. Nunca se sabe quando será necessário – somente quando a crise se instaura e somos pegos de surpresa.

Por isso, é preciso ter sempre em mente as claras vantagens proporcionadas por um bom plano de contingência, como redução de perdas em potencial, redução da exposição e de eventuais arranhões à imagem da marca/empresa, redução de interrupções, distribuição de responsabilidades, mais segurança e melhores resultados para os clientes, além de um corte drástico nos níveis de estresse em casos críticos.

(*) Adriano Filadoro é diretor de tecnologia da empresa Online Data Cloud

sábado, 29 de março de 2014

Boa Leitura - METACOGNIÇÃO – O QUE É ISSO?


Mais um neologismo que vem se tornando a competência preferida dos avaliadores nos exames de seleção e é o critério de seleção mais importante dos mais importantes headhunters no mundo.

No universo corporativo cada vez mais competitivo, não basta você conseguir conceituar direitinho e recitar de cor e salteado o que é essa tal da metacognição e estar antenado com as novas tendências da psicologia corporativa.

É preciso ficar claro que nas técnicas de avaliação das novas corporações um dos principais critérios de seleção levará em conta o candidato que tiver sua metacognição melhor desenvolvida.

Não por coincidência a corporação que avalia a metacognição não apenas oferece os melhores salários, mas também as melhores oportunidades de carreira.
Evidentemente esse tema é gigantesco.

Desta forma tenho que me desculpar desde já com os especialistas da área, frente essa minha audaciosa tentativa de resumir nessas poucas linhas conceitos tão magníficos.

Para abrandar minha consciência listo abaixo alguns livros, que penso, auxiliarão o leitor nessa maratona.

No âmbito da psicologia podemos conceituar cognição como sendo processo da aquisição do conhecimento e sua interiorização, ou seja, a conversão de tudo que é apreendido para o nosso modo de ser interno.

O conceito tem origem no termo “cognitione” atribuído às ideias de Platão nos escritos de Aristóteles e utilizado para denominar o conjunto dos processos mentais utilizados na geração do próprio pensamento e na aplicação das diversas faculdades mentais, tais como classificação, reconhecimento e compreensão, só para citar algumas.

Além do julgamento — através do raciocínio — e do aprendizado — a partir da observação, experimentação, experienciação e do estudo — a cognição amplia-se também para a compreensão dos sistemas e abarca a criatividade, bem como o desenvolvimento de soluções de problemas.

Podemos dizer numa forma mais concisa que a cognição é o funcionamento da mente humana quando percebe, aprende, recorda e pensa sobre toda informação captada através dos cinco sentidos e elabora através da criatividade informações novas e originais capazes de inferir sobre seu comportamento e interagir e/ou modificar os ambientes natural e social.

Em suma é a parte mais nobre e sofisticada da inteligência humana.

Dito isso, é fácil intuir que do ponto de vista evolutivo a cognição é a nossa melhor ferramenta de adaptação ao meio.

Nesse processo pelo qual o ser humano interage com os seus semelhantes e com o ambiente conservando sua individuação e identidade existencial, observamos que o primeiro passo cognitivo vem a ser a captação das informações do ambiente através dos órgãos dos sentidos, processo esse, que em decorrência de sua interiorização, caracteriza a percepção.

Com a repetição de vivências e experimentações, as informações vão construindo o acervo da memória individual, que também inferem na percepção.
Em ciclos cada vez mais complexos envolvendo os aspectos límbicos, sensoriais e sensíveis/emocionais o indivíduo vai construindo o seu “episteme”,  ou seja, sua tomada da realidade.

É da conjunção desses processos mentais que vai surgindo o que se denomina em psicologia cognitiva de “consciência individual” ou “cognição de si mesmo”.
Essa “consciência individual” caracteriza o entendimento de que somos um ser à parte — um ser individual — ou seja, temos aí, a percepção da nossa própria existência.

Assim podemos avançar para o conceito de metacognição como sendo a cognição da cognição.

Em outras palavras é a aplicação de todos os processos cognitivos para promover o reconhecimento, o entendimento e o controle do próprio processo cognitivo.

A metacognição é em síntese, a conjugação do metaconhecimento com o seu controle.

Ficou muito complicado?

Vamos usar, então, de uma analogia.

Vamos imaginar que tanto o seu conhecimento individual quanto os recursos da sua inteligência, tais como raciocínio, memória, fluência, etc. sejam ferramentas dentro uma caixa.

Você terá uma metacognição extraordinária se você souber com certeza:

1.    Quais ferramentas você tem na caixa e para que serve cada uma;

2.    Como usar com eficácia cada ferramenta;

3.    Quais ferramentas você precisará para realizar cada tarefa;

4.    Quais ferramentas lhe faltam;

Ficou melhor?

Vejamos pelo currículo:

Existem profissionais que são comunicativos, inteligentes, sabem trabalhar em equipe, possuem um currículo invejável com graduação, pós-graduação, domínio de idiomas, MBA, etc., porém não conseguem fazer sua carreira decolar. Por quê?

Um dos diagnósticos mais frequente é a falta de metacognição que passa inevitavelmente pela falta de autoconhecimento.

Não adianta ter ferramentas e saber usá-las se você não sabe que as possui.
E o que é pior, de forma arrogante, acredita que dispõe de todas as ferramentas de que precisará.

Frente ao exposto é fácil entender a notícia de que existem apenas no Brasil centenas de vagas na alta gerência com salários bem acima dos 5 mil dólares que simplesmente não conseguem ser preenchidas.

E por que os mais eficientess headhunters têm dificuldade de conseguir no Brasil um profissional adequado para ocupar esses cargos?

Por que é Brasil.


Quem tem caixa não tem ferramentas, quem tem ferramentas não tem caixa e quem tem caixa e tem ferramentas ou não sabe que tem ou tem preguiça de usá-las.

quarta-feira, 26 de março de 2014

BYOD, realmente era uma boa ideia ???

Uso excessivo de recursos MDM pode matar o BYOD

(http://cio.com.br/gestao/2014/03/25/uso-excessivo-de-recursos-mdm-pode-matar-o-byod)
Tom Kaneshige, CIO/EUA
Publicada em 25 de março de 2014 às 14h29
Até 2016, um em cada cinco programas de BYOD irá falhar devido a implantação de medidas gerenciamento de dispositivos móveis muito restritivas, prevê o Gartner
Apenas dois anos atrás, o BYOD inundou as empresas, em parte graças aos software de gestão de dispositivos móveis (MDM), que permitiam deixar os funcionários desfrutar da comodidade de uso de aplicativos de trabalho e aplicativos pessoais em um único dispositivo, proporcionando um cobertor de segurança. Mas, agora, sinais apontam o aproveitando de capacidades avançadas de MDM para a criação de restrições de uso dos dispositivos móveis que ameçam arruinar a experiência do usuário.
"Achamos que algumas organizações de TI, acostumadas a ter controles fortes, estão levando esses controles para os dispositivos móveis, implementando políticas MDM muito onerosas", diz o analista do Gartner Van Baker.
Até 2016, um em cada cinco programas de BYOD irá falhar devido a implantação de medidas gerenciamento de dispositivos móveis muito restritivas, prevê Baker.
O prognóstico sombrio não é mero trabalho de adivinhação. Pesquisa do Gartner, do final do ano passado, revelou que um em cada cinco empresas abadonará o BYOD por causa de preocupações com privacidade.
De acordo com Baker já é possível perceber a degradação da experiência do usuário em dispositivos móveis por conta do mau uso das ferramentas MDM. Juntas, questões relacionadas com má usabilidade e violações de privacidade vão atrapalhar o desenvolvimento do BYOD.
Por exemplo, alguns departamentos de TI, através do uso de MDM, estão forçando os usuários a alternarem o uso de ambientes diversos e várias senhas. Por exemplo: um usuário com o app do Facebook aberto no espaço pessoal de um tablet, que queira verificar o e-mail de trabalho, terá que sair do Facebook, sair do espaço pessoal, fazer login no espaço de trabalho, e fazer login no o e-mail corporativo. Se quiser voltar para Facebook, terá que fazer todo o processo de novo, na ordem inversa.
Outra empresa  obriga que os tablets usem uma capa protetora que exige um cartão de identificação segura. Resultado: esses tablets se tornaram inúteis, pesos de papel.
Outra tática comum,  que arruína a experiência do usuário, é forçar os funcionários a usarem aplicativos móveis corporativos somente enquanto estiverem nas instalações da empresa, obrigando-os a usar um cliente de email desajeitado em vez do cliente de email nativo do aparelho.
"Esse tipo de usabilidade não só deixará de ser tolerada, como conduzirá os funcionários para longe dos programas BYOD", alerta Baker.
Se o MDM parecer muito restritivo, os funcionários vão se revoltar.

Tirando a tinta da porteira para o burro não quebrar a cerca........

 http://idgnow.com.br

TI pessoal >

Dica: como deixar a barra de tarefas do Windows ao seu gosto

Ian Paul, PCWorld EUA
26 de março de 2014 - 11h00
Veja estas dicas simples para evitar que ela ocupe espaço na tela e fazê-la funcionar como nos “bons tempos” do Windows XP.
Entre os componentes do desktop que podem ser modificados para melhorar a experiência do usuário com o PC, a barra de tarefas do Windows é talvez o mais ignorado. Mas hoje vou mostrar dois truques com ela: um irá lhe dar um pouco mais de espaço para o trabalho no dia-a-dia, e o outro remete ao velho Windows XP, para os que sentem saudades dos dias de glória do Windows.
Ganhando espaço
A barra de tarefas é ótima para navegar entre diferentes programas abertos, ver as horas e ficar de olho em notificações do sistema. Mas sejamos honestos: em boa parte do tempo ela só está ocupando espaço no rodapé da tela.
Felizmente a barra de tarefas não precisa estar na tela todo o tempo, e pode ser ocultada ou exibida à vontade. Veja como fazer isso no Windows 7 e 8.1.
DicaTaskbar_Ocultar-490px
Marque a opção destacada em vermelho para fazer a barra de
tarefas se ocultar automaticamente, liberando espaço na tela
Clique com o botão direito do mouse em um espaço vazio na barra de tarefas e selecione o item Propriedades. Na aba Barra de Tarefas, marque a opção que diz Ocultar automaticamente a barra de tarefas. Clique em Aplicar e em OK. A barra de tarefas pode aparecer e sumir algumas vezes, mas eventualmente irá se recolher no canto inferior da tela, esperando ser chamada.
Para fazer a barra aparecer, simplesmente leve o mouse até a parte de baixo da tela. No Windows 8.1, você verá que a barra fica mais translúcida que o normal quando configurada para se ocultar automaticamente.
Se você quiser retornar a barra de tarefas à sua posição permanente, repita os passos e desmarque a opção Ocultar automaticamente a barra de tarefas.
À moda do Windows XP
Desde o Windows 7 por padrão a barra de tarefas condensa todas as janelas de um mesmo programa atrás de um único ícone, ou botão. Se você tem três documentos do Word abertos, verá um único botão do Word. E se você parar o cursor do mouse sobre este botão, verá um preview de cada janela.
DicaTaskbar_Agrupar-490px
Selecione Nunca agrupar neste menu para que cada
janela tenha seu próprio botão na barra de tarefas
Essa abordagem é útil para “limpar” a barra de tarefas, mas algumas pessoas preferem o “jeito XP”, onde cada janela tem seu botão. E há uma forma fácil de conseguir isso: clique com o botão direito do mouse sobre um espaço livre na barra de tarefas e selecione o item Propriedades no menu. Na aba Barra de Tarefas procure o item Botões da barra de tarefas. Clique no menu em frente a ele e escolha a opção Nunca agrupar, ou então Agrupar quando a barra de tarefas estiver cheia se quiser uma abordagem mais prática.
Clique em Aplicar e em OK e pronto, cada janela aberta tem seu próprio botão na barra de tarefas, como antes.
Copyright 2014 Now!Digital Business Ltda. Todos os direitos reservados.
A reprodução total ou parcial de qualquer meio ou forma sem expressa autorização por escrito da Now!Digital Business Ltda. é proibida. IDG Now! é uma propriedade da International Data Group, Inc., licenciado pela Now!Digital Business Ltda.

segunda-feira, 17 de março de 2014

OneNote: No Limits (+playlist)

Entenda a diferença


Entenda as diferenças entre um notebook doméstico e um modelo corporativo

Garantia, durabilidade, tecnologia embarcada e até mesmo o software que vem pré-instalado são alguns dos fatores que podem influenciar uma decisão de compra.
Por Jon L. Jacobi, PCWorld EUA
14/03/2014
Notebooks vem em muitos “sabores” diferentes. Há os finos e leves, os conversíveis, os substitutos de desktop, modelos para gamers e até mesmo estações de trabalho portáteis. Mas todos eles podem ser agrupados em duas categorias: para o consumidor doméstico (consumer) ou para o mercado corporativo (business). Vamos mostrar o que torna uma categoria diferente da outra, e ajudá-lo a decidir qual é a mais correta para suas necessidades.
Os fabricantes de máquinas tornam fácil distinguir qual o público alvo de cada máquina colocando diferentes nomes nelas. A Lenovo vende os IdeaPad no mercado doméstico e os ThinkPad para empresas e profissionais. Na Dell as linhas XPS e Inspiron são os modelos para o consumidor, e a linha Latitude é a corporativa.
A Toshiba usa os nomes Satellite, Qosmio e Kirabook para as máquinas domésticas e Tecra para as profissionais. E com a Acer temos os Aspire para os consumidores e TravelMate para as empresas. A HP é a que mais segmenta as coisas, oferecendo notebooks para os consumidores sob as marcas Pavillion, TouchSmart, Envy, Spectre e Split, enquanto para o mercado corporativo há os G-Series, EliteBook, Pro, ProBook e ZBook.
DiferencaNotebooks_Satellite-580px
Os notebooks corporativos da Toshiba pertencem à família Tecra, enquanto os modelos
domésticos são os Satellite, como o Satellite L55Dt-A5253 mostrado acima.
O próximo fator óbvio é o preço: notebooks para o mercado corporativo podem custar até duas vezes mais que os modelos domésticos. Mas ambos os tipos são baseados em componentes similares, e ambos rodam o mesmo sistema operacional e software. Será que os fabricantes simplesmente acham que as empresas tem mais dinheiro pra gastar que os consumidores?
Pode até haver um elemento de verdade nessa linha de raciocínio, mas ela não conta toda a história. O mercado de PCs é incrivelmente competitivo e as margens de lucro são microscópicas. A principal razão porque um PC corporativo custa mais do que um modelo doméstico é porque as empresas, grandes ou pequenas, querem máquinas construídas para durar e que seja fáceis de manter.
Modelos corporativos também vem com garantias maiores, envolvem um estoque maior de máquinas e peças para reposição e tem recursos extras de segurança e gerenciamento remoto. O custo destes atributos se reflete no preço final do produto. Depois que você entender estes diferenciais, poderá decidir se eles compensam o custo extra.
Durabilidade e ciclo de vida
Espera-se que um notebook corporativo permaneça em serviço por muito mais tempo que uma máquina doméstica, e que eles sejam pelo menos um pouco mais resistentes. Por isso são geralmente produzidos com material mais forte, como alumínio ou magnésio, e tem uma construção mais sólida. Os modelos para o consumidor, especialmente os mais baratos, são montados usando generosas quantidades de plástico.
DiferencaNotebooks_Latitude6430-580px
Alúmínio e Magnésio são alguns dos materiais mais populares na construção
de notebooks corporativos, como este Dell Latitude 6430u 
A maioria das empresas padroniza seu parque de hardware em um ou dois modelos de notebooks, e os mantém em serviço por pelo menos três anos. Esta estabilidade reduz a carga de suporte sobre o departamento de TI da empresa. Quando um fabricante lança um novo notebook corporativo, ele geralmente se compromete a manter exatamente a mesma máquina disponível por um período que varia de 18 meses a 5 anos, para que seus clientes possam ampliar seus parques de hardware no futuro.
Clientes corporativos também esperam ser capazes de adquirir peças de reposição durante toda a vida em serviço de uma máquina. Por isso o fabricante precisa manter um inventário de peças que talvez nunca sejam vendidas. Parte do custo destas peças é refletido no preço do notebook.
Já os notebooks para o consumidor tem uma vida muito mais curta nas vitrines das lojas. Um modelo pode estar disponível por apenas um ano, às vezes menos, antes de ser substituído por algo mais novo. A Toshiba produziu um número limitado do luxuoso Kirabook, por exemplo, e ao produzir um segundo lote mudou o hardware para acomodar os processadores Intel Core de quarta geração.
DiferencaNotebooks_Kirabook-580px
Empresas raramente compram notebooks domésticos, como este Toshiba Kirabook,
porque preferem máquinas que não irão mudar por vários anos.
Os consumidores tem maior tendência a simplesmente trocar uma máquina defeituosa por outra, em vez de repará-la. Às vezes esta é a estratégia que faz mais sentido, às vezes é a única, já que os fabricantes não mantém grandes inventários de peças de reposição para os produtos em suas linhas para o consumidor. Outras vezes um defeito é apenas a desculpa necessária para comprar um novo modelo com os mais novos acessórios e recursos.
Mas empresas não podem trocar de hardware à revelia, já que cada mudança implica em custos além da aquisição de uma máquina: há o teste, o treinamento, as licenças de software e muito mais.
Manutenção e reparos
Notebooks corporativos são geralmente mais fáceis de manter e reparar. Em uma máquina corporativa você não encontrará parafusos Torx ou os ridículos “Pentalobe” usados pela Apple (a não ser, claro, que seja um Macbook).
DiferencaNotebooks_Parafusos-580px
Com exceção dos MacBook Pro, você não irá encontrar parafusos
incomuns, como este "Pentalobe", em notebooks corporativos.
Uma chave Philips comum deve ser tudo o que você precisa. E em modelos como a workstation portátil ZBook 15, da HP, nem isso: basta mover duas travas presas por fricção e você pode remover o painel inferior para acessar a memória, disco rígido, interface Wi-Fi, bateria e mais.
Componentes que podem ser substituídos pelo usuário não são algo inédito em máquinas para os consumidores, mas estão se tornando cada vez mais raros à medida em que elas se tornam produtos descartáveis.
Portas e conectores
A seleção de portas em um notebook doméstico geralmente se divide ao redor do preço: as máquinas mais caras incorporam a tecnologia mais recente rapidamente, enquanto as máquinas baratas ficam para trás. Muitas tecnologias de I/O como USB 3.0 e HDMI estão no mercado há tempo suficiente para se tornarem onipresentes em máquinas domésticas em qualquer faixa de preço. Tecnologias mais recentes, por outro lado, demoram a “pegar”. Um bom exemplo é a Thunderbolt, que apesar de ser capaz de transferir dados pelo menos duas vezes mais rápido que uma porta USB 3.0 (10 Gbps, podendo chegar a 20 Gbps no Thunderbolt 2) é rara entre os PCs.
DiferencaNotebooks_Portas-580px
A estação de trabalho portátil HP Zbook 15 tem quase todo o tipo de portas que você pode
imaginar, incluindo Thunderbolt, DisplayPort, USB e slots para Smart Card e ExpressCard
Os notebooks corporativos, em todas as faixas de preço, geralmente ficam para trás quando o assunto são as mais recentes tecnologias para conexão a periféricos e aparelhos externos. Em parte porque o departamento financeiro, sempre de olho em cada centavo, não quer pagar por algo que não é, e pode nunca ser, amplamente usado. A mesma mentalidade explica porque tecnologias legadas como portas VGA podem durar tanto tempo em máquinas corporativas: elas são necessárias para conectar os notebooks a projetores mais antigos.
Interfaces de rede sem fios são estritamente necessárias em ambas as categorias de notebooks. Uma interface Wi-Fi 802.11ac é a melhor opção, mas os adaptadores 802.11n são mais baratos e mais comuns. Algumas máquinas corporativas também tem a opção de conexão via banda larga móvel (3G ou 4G) usando um SIM Card que pode se instalado na máquina.
Slots para “Smart Cards” e “ExpressCard” são encontrados exclusivamente em máquinas corporativas. Os Smart Cards são um robusto mecanismo de segurança que pode ser usado para impedir que usuários não autorizados ganhem acesso a um computador quando ele está ligado porém “sozinho”. Já os ExpressCard são uma interface legada que substituiu duas tecnologias ainda mais antigas, PC Card e PCMCIA. Em um slot ExpressCard você pode plugar cartões com novas interfaces de I/O (Firewire, eSATA, interfaces de rede, etc) e recursos especiais que vão de sintonizadores de TV a placas de som. O HP Zbook 15, mostrado acima, tem tanto um slot para ExpressCard quando para um Smart Card.
DiferencaNotebooks_SIMSlot-580px
Você irá agradecer aos céus pelo modem 3G integrado ao seu notebook quando precisar
se conectar à internet e não houver nenhuma rede Wi-Fi sequer nas proximidades
Muitos notebooks corporativos vem com portas para docking stations, enquanto os modelos domésticos quase nunca tem isso. Se você passa muito tempo sentado à sua mesa, mas ainda precisa da mobilidade de um notebook, uma docking station ou replicador de portas pode ser uma benção. Você pluga seu desktop, mouse, teclado, monitor, cabo de rede, discos externos e outros periféricos à “dock”, e o notebook a ela. Quando precisar sair basta apertar um botão (ou puxar um único cabo) para levar sua máquina com você, deixando os periféricos para trás.
Mas você não precisa comprar um notebook corporativo para usar uma docking station. Acessórios de terceiros como a Targus Universal 3.0 DV aproveitam tecnologias como USB e DisplayLink para oferecer quase a mesma funcionalidade de uma dock proprietária. A única desvantagem é que você pode ter de desplugar mais do que um cabo para desconectar seu notebook (e plugá-lo de volta para conectar). Além disso, DisplayLink usa compressão em tempo real para transmitir sinais de vídeo para um monitor externo. Será difícil notar no dia-a-dia artefatos de imagem gerados por essa compressão, mas talvez essa tecnologia não seja uma boa opção para quem faz edição profissional de imagens ou vídeo.
DiferencaNotebooks_Dock-580px
Uma Docking Station, acoplada a conectores como este, facilita a transição da "mesa" para a "estrada"
A tecnologia sem fio WiGig elimina a necessidade de estabelecer uma conexão física entre o seu notebook e a dock. Sua adoção tem sido curiosamente lenta, mas a Dell foi uma das primeiras a usá-la ao produzir a Wireless Dock D5000, que agora é compatível com um grande número de notebooks da empresa.
Tecnologia de vídeo
Os processadores de vídeo (GPUs) integrados às CPUs modernas são tudo o que você precisa para navegar na web, assistir filmes, editar documentos e outras tarefas corriqueiras. Mas você precisará de uma GPU dedicada para tarefas mais computacionalmente intensivas, como CAD (Computer Aided Design, Design Auxiliado pelo Computador).
Se um notebook doméstico tem uma GPU dedicada, ela provavelmente será um modelo projetado para rodar jogos. Se um notebook corporativo tem uma GPU dedicada, quase certamente será um modelo projetado para usos muito diferentes: CAD, modelagem 3D, tratamento de imagens nas áreas médica e científica, criação de conteúdo (animação em 3D, por exemplo) e mais. Se sua área de trabalho é uma destas, procure máquinas com GPUs das linhas AMD FirePro Mobile Graphics, ou Nvidia Quadro Mobile Workstation.
DiferencaNotebooks_HDMI_VGA-580px
Portas VGA são comuns em notebooks corporativos, já que os projetores em milhares de salas
de conferência e escolas ainda usam este padrão. Já portas HDMI (à direita) são mais raras
Como a maioria das TVs de alta-definição tem portas HDMI, não é surpresa que a maioria dos notebooks para o consumidor use esta interface para conexão a telas externas. Mas o DisplayPort, usado em máquinas e monitores profissionais, é uma interface superior para os usuários corporativos pelo simples fato de que uma única porta DisplayPort 1.2 pode suportar até quatro monitores com resolução de 1920 x 1200 pixels, ou dois monitores com resolução de 2560 x 1600 pixels. Em ambos os casos, cada monitor pode receber sinais de áudio e vídeo independentes. Tanto DisplayPort 1.2 quanto HDMI (na versão 1.4 ou superior) podem suportar um monitor 4K com resolução de 3840 x 2160 pixels. 
Recursos de gerenciamento e segurança
Para uma empresa que coloca em operação centenas ou talvez milhares de notebooks, é essencial que o departamento de TI seja capaz de gerenciá-los remotamente. Embora a maioria das pequenas empresas não tenha um departamento de TI, muitas delas contratam consultores para gerenciar seus recursos. Comprar um notebook equipado com uma CPU e BIOS com tecnologias como a Intel vPro, DASH (Desktop and Mobile Architecture for Hardware) ou a HP SureStart pode economizar tempo para eles, e dinheiro para sua empresa.
Estas ferramentas permitem que um departamento de TI monitore, gerencie, acesse remotamente e até mesmo repare instalações de software em notebooks em campo. O usuário não precisa estar presente, e isso pode ser feito mesmo que a máquina esteja tão comprometida, seja por uma infecção por malware, uma instalação de software mal-sucedida ou arquivos corrompidos, que seja incapaz de carregar o sistema operacional.
Restaurar remotamente uma imagem do sistema (ou seja, uma cópia exata de todo o software e aplicativos de uma máquina em um dado momento) pode economizar muito tempo, além dos custos de viagem ou envio da máquina para reparos. O vPro também pode impedir a ação de certos tipos de malware e ataques que ocorrem em um nível ainda mais baixo que o do sistema operacional. E a tecnologia SureStart, disponível apenas nas máquinas da HP, pode rapidamente restaurar a BIOS de um computador se ela tiver sido corrompida ou atacada.
DiferencaNotebooks_Fingerprint-580px
Um leitor de impressões digitais, como este num Toshiba Tecra Z40, pode impedir o
acesso não autorizado às informações armazenadas em seu notebook
Como um notebook corporativo pode abrigar informações importantes sobre uma empresa, estas máquinas geralmente tem recursos adicionais de segurança integrados no hardware. Um dispositivo biométrico como um leitor de impressões digitais pode ser usado para verificar a identidade do usuário, e ferramentas de criptografia como TPM e a BitLocker, do Windows, podem criptografar dados à medida em que são salvos no HD. Tais dados não poderão ser lidos se o usuário não tiver a chave própria para decodificá-los, nem mesmo se um malfeitor arrancar o HD de uma máquina roubada e colocá-lo em outra.
Se você decidir que vPro ou DASH são recursos essenciais em seu próximo notebook, certifique-se de que o modelo escolhido realmente tem estes recursos, já que eles não estão presentes em todas as máquinas corporativas. A Intel tem um site que informa se um determinado modelo de processador tem suporte a vPro, e qualquer notebook equipado com um processador da AMD que também tem um chip TPM irá suportar DASH. E no caso de máquinas da HP, verifique a ficha técnica da máquina para saber se ela suporta a tecnologia SureStart.
Software pré-instalado
Ligue um notebook doméstico recém-saído da caixa e você irá encontrar todo tipo de lixo consumindo espaço no disco. Demonstrações de jogos, de antivírus, links para sites e mais. Os fabricantes de software pagam aos fabricantes de hardware para instalar esse tipo de conteúdo (apelidado de “bloatware”), o que pode ajudar a reduzir o preço final da máquina ou aumentar as margens de lucro. Você não é obrigado a deixar este software na máquina, é claro, mas sua remoção geralmente é um incômodo, mesmo usando software feito especialmente para isso como o CCleaner, da Piriform.
Empresas não querem, nem podem, perder tempo removendo software, então os fabricantes reduzem ou eliminam estes programas em máquinas corporativas. E empresas que compram máquinas em grande volume podem até especificar exatamente que software desejam pré-instalado.
Como empresas normalmente querem manter todos os funcionários na mesma plataforma (simplificando o suporte técnico e reduzindo seu custo) elas mantém um sistema operacional em uso por muito tempo após uma nova versão ser lançada. Quando você compra um notebook para o consumidor, ele provavelmente já virá com o Windows 8.1 instalado. Máquinas corporativas podem vir com licenças para “downgrade” para uma versão anterior do sistema operacional (como do Windows 8 para o 7), ou ter como opção uma distribuição Linux.
Garantia, serviço e suporte técnico
Um notebook doméstico típico geralmente tem uma garantia de um ano contra defeitos de fabricação. Os modelos mais baratos podem ter apenas a garantia mínima legal, 90 dias. Isso mantém o preço baixo e permite que os revendedores ofereçam garantias extendidas (com um custo extra, claro). Qualquer máquina corporativa digna de seu nome vem com uma garantia de três anos, e esse período geralmente pode ser ampliado para cinco ou sete anos.
Quando um notebook doméstico falha, tipicamente é necessário enviá-lo ao fabricante ou levá-lo a uma assistência técnica autorizada para diagnósticos e reparos. Você raramente tem uma garantia de tempo para a solução do problema, e se uma peça precisar ser trocada, você não tem nenhuma garantia de que ela estará em estoque. Na pior das hipóteses, sua máquina pode ficar “fora de combate” por semanas.
DiferencaNotebooks_Reparo-580px
Basta remover a bateria e dois parafusos no Dell Latitude 7440 para ter acesso às
interfaces Wi-Fi e 3G, disco rígido e memória, o que facilita reparos e upgrades
Empresas não podem se dar ao luxo de ter empregados esperando enquanto seus notebooks são consertados. Um departamento de TI corporativo geralmente tem á mão máquinas extras para empréstimo, e geralmente faz sozinho os reparos ou lida diretamente com o fabricante. Pequenas empresas podem economizar dinheiro tirando proveito de serviços como a assistência “on site” (ou seja, um técnico vai até a máquina) e garantia de atendimento rápido, geralmente 24 horas sem contar o tempo de trânsito se a máquina precisar voltar para a fábrica, que são oferecidos com um notebook corporativo.
A eficiência do suporte técnico ao consumidor varia, mas ele geralmente só pode ser conduzido via e-mail ou chat. Se houver um número 0800, é improvável que ele esteja disponível 24/7, e você provavelmente irá experimentar longos tempos de espera. Problemas de software geralmente não são cobertos.
Viajantes a negócios que precisam terminar o trabalho antes de uma grande reunião precisam que seus problemas sejam resolvidos imediatamente, então as políticas de suporte para os notebooks corporativos são muito mais robustas. Embora ele possa ser opcional, para reduzir os custos caso a empresa tenha um departamento de TI que faz seu próprio suporte, atendimento telefônico 24/7/365 está quase sempre disponível, e inclui suporte ao software.
E aí, corporativo ou doméstico?
Pode parecer que estou tentando te vender um notebook corporativo, mas não estou. Eles tendem a ser mais caros no início, e seu custo de propriedade mais alto não faz sentido para usuários domésticos.
Se você não está comprando um lote de máquinas e não depende de seu notebook para ganhar a vida, um modelo doméstico pode até preencher as necessidades de uma pequena empresa.
Mas se em seu mundo tempo é dinheiro, então o melhor suporte, maior período de garantia, ciclo de vida ampliado e recursos extras de segurança dos modelos corporativos irão lhe economizar dinheiro a longo prazo, mesmo que sua “frota” consista de apenas uma máquina.
Por sua vez, os consumidores devem ficar com os modelos domésticos. Uma máquina topo de linha pode lhe trazer muitos dos recursos que você encontraria em um modelo corporativo, com tecnologia mais sofisticada e custo menor.
Copyright 2014 Now!Digital Brasil Ltda. Todos os direitos reservados.

terça-feira, 11 de março de 2014

Lições do mercado....

Dez principais motivos para o fracasso do BI

(http://cio.com.br/tecnologia/2014/02/24/dez-principais-motivos-para-o-fracasso-do-bi)
Manuel del Pino *
Publicada em 24 de fevereiro de 2014 às 09h34

Muitos dos promissores projetos de Business Intelligence falham na metade do caminho. Não raramente, o desempenho dos sistemas não consegue acompanhar a demanda dos usuários finais

Muitos dos projetos de Business Intelligence terminam em fracasso.  Na maioria dos casos, dois fatores são apontados como os grande vilões. Um deles é a necessidade das empresas filtrarem um volume maior de informações de acordo com quesitos bastante específicos (relevantes para o negócio) o que faz aumentar a complexidade da pesquisa no sistema de BI. Ainda é necessário adequar o desenvolvimento de hardware e de software, que anda em passos mais lentos que essa demanda.
Além disso, vivemos em uma época na qual  - acostumados a fazer pesquisas no Google, por exemplo – os usuários desejam obter respostas rápidas. Tal velocidade, imprime nos sistemas internos a pressão de responder na hora, pois poucos usuários ainda toleram sistemas lentos. O retardo nas repostas leva a um só comportamento por parte do usuário final: o abandono da plataforma de informações. Prejuízo certo para a corporação que desembolsou uma quantia razoável pela solução.

O resultado do desastre é uma opulência de tabelas do Excel transitando pela corporação em silos desorganizados.

Baseando-se nos anos de experiência e em diversos debates com profissionais de TI e de unidades de negócio de centenas de empresas, a Information Builders identificou 10 razões mais frequentes do fracasso das implementações de BI.

1. Requisitos pouco claros
Depois que as unidades de negócio e o departamento de TI concordam que a sua empresa necessita de um sistema de reporting e de análise dos dados de negócio, o próximo grande passo é definir os indicadores-chave do desempenho (KPIs) para uma gestão empresarial eficaz. Contudo, em vez da definição destes indicadores, muitas empresas usam as aplicações de BI meramente para confirmar o que faziam anteriormente no Excel e, depois, questionam-se porque os seus relatórios são apenas um pouco melhor do que os anteriores.

2. Dados incorretos ou incompletos
Por mais persuasivo que o design da aplicação de BI possa ser, as pesquisas iniciais sobre a informação requerida em vastas fontes de dados durante um teste podem revelar que os dados estão desatualizados, têm erros ou (ainda) estão inacessíveis. Dados com pouca qualidade são uma causa frequente de grandes problemas nos projetos de BI. As lacunas, por vezes, também se revelam na utilização diária, quando se trabalha com dados que mudam frequentemente.

3. Usuários finais envolvidos tardiamente
Quando se implementa um projeto de BI, é essencial que se inclua colaboradores das unidades de negócio que irão trabalhar com a aplicação final já nas fases iniciais do projeto. Se a aplicação não está em sintonia com os seus inputs, o projeto provavelmente encontrará  considerável resistência. Se, no mínimo, poucos utilizadores tiverem a oportunidade de trabalhar com o primeiro produto acabado, então o próximo trabalho de projeto poderá incluir as suas experiências.

4. Resultados apresentáveis apenas após dois anos
Muitas vezes, as empresas tentam abordar todos os requisitos concebíveis de BI em um projeto a longo prazo. Enquanto uma abordagem estratégica é sempre correta, os problemas podem surgir se a equipe do projeto insistir em, inicialmente, manter o seu trabalho “em segredo”. Quando a equipe apresenta os seus primeiros resultados após dois anos, é altamente provável que estes se desviem significativamente das suas expectativas iniciais. É muito mais promissor se levarem dois ou três meses para apresentar módulos acabados que possam provar a sua adequação às operações diárias.

5. Falta de gestão da mudança
Mudanças e ajustes às especificações e objectivos originais existirão em qualquer projeto de BI. Contudo, em muitos casos, inexistem uma equipe de gestão formal das mudanças que definam como os novos requisitos serão incorporados ao projeto existente e um responsável pela sua aprovação. A falta de uma gestão de mudanças resulta rapidamente em custos adicionais e em atrasos na conclusão do projeto.

6. Cumprimento e segurança negligenciados
O número de disposições e regulamentações legais têm aumentado continuamente nos últimos anos, e as disposições de privacidade tornaram-se mais rigorosas. As equipes de projeto raramente têm em conta as normas, as regras e os conceitos de segurança, desde o início, ao fazerem disposições para integrar futuras mudanças o mais facilmente possível. Por exemplo, deverá ser necessário dar acesso aos usuários às aplicações e aos dados no futuro.

7. Documentação pobre sobre o ambiente da aplicação
Não é raro que os projetos mais abrangentes de BI revelem que a documentação existente sobre a aplicação está incorreta ou desatualizada. Este é o maior obstáculo da coordenação do sistema e da integração de todos os sistemas afetados. Um simples exemplo disto é o campo de nomes que varia de uma aplicação para outra, precisando ser consolidado através de uma tabela de correspondência. Como resultado, temos custos adicionais e, normalmente, um atraso significativo do projeto.

8. Recursos de hardware cotados de forma incorreta
Podemos distinguir dois tipos diferentes de erros aqui. Em um primeiro caso, as empresas são demasiado generosas na determinação das suas necessidades de hardware, o que deixa os recursos inativos e leva a custos contínuos consideráveis (e desnecessários). Em um segundo caso, os requisitos de hardware são subestimados, resultando em um desempenho pobre e usuários finais insatisfeitos.

9. Funcionários centrados no Excel
Durante anos, muitas unidades de negócio de empresas de todas as dimensões apoiaram-se exclusivamente no Excel para criar e analisar relatórios. “Mas sempre foi assim que fizemos” é a resposta mais comum dos funcionários que ainda não estão preparados para perder os velhos hábitos. No que diz respeito a isto, muitos subestimam a prática que será necessária para tornar a aplicação um sucesso, nas operações diárias.

10. Um orçamento inadequado
O custo de um projeto de BI, que irá proporcionar transparência aos processos de negócio e fornecer dados para uma gestão eficaz, não pode ser coberto por fundo. Um sentido equivocado de economia leva, muitas vezes, a que as empresas decidam implementar capacidades-chave, como a integração de fontes adicionais de dados, o fornecimento de capacidades “core” de BI aos dispositivos móveis ou levar em conta os utilizadores móveis e os seus dispositivos.

Aqueles que aprendem a partir dos erros dos outros são os que o melhor planejam suas aplicações de BI. Se os problemas são identificados a tempo, as hipóteses de se ser bem sucedido nos projetos de BI são boas. Esta é uma importante condição para assegurar que os negócios atinjam as suas metas operacionais com as aplicações de BI.

(*) Manuel del Pino é diretor de Pré-venda da Information Builders Ibéria