Traz postagens de Informática sobre Governança de TI , eventos, palestras, assuntos relacionados à informática.
Aviso 1: Este site usa cookies para garantir que você obtenha a melhor experiência em nosso site.
Aviso 2: Todos os artigos podem ser traduzidos para diversos idiomas, Abaixo de Translate basta consultar o combo, e clicar em "Selecione o idioma".
Aviso 3: Para celular, Vá ao final da página e clique em Visualizar versão para a Web.
Aviso 4: Os itens em azul são postagens antigas
Depois de ler o artigo, responda a seguinte enquete.
Ao
longo da história vários fatos ocorreram até chegarmos á
percepção da necessidade de um bom conhecimento organizacional. Um
destes fatos que aconteceram começaram com a descoberta da escrita,
que originou o alfabeto, onde foram formadas palavras, textos, até
chegar em escritos com significados importantes, e estes significados
importantes através da percepção e/ou experiência geraram o
conhecimento, e o conjunto destes o saber, até chegarmos no
armazenamento destes dados na forma de bytes.
Conhecimento
organizacional começou a ser percebido dentro das empresas junto com
a necessidade de se efetuar planejamento estratégico. Fazer o
planejamento estratégico é pensar antes de agir, e para que isto
seja feito, necessita-se saber como andam a contabilidade, o
financeiro, enfim informações necessárias para se projetar
os orçamentos e ganhos para o próximo ano, dentro da missão, visão
e valores da empresa. E para tudo isto ocorrer precisa ter uma boa
comunicação. Conhecimento
compartilhado é conhecimento transformado em benefício da empresa.
É economiaaos
cofres da empresa, é dinheiro que sobra para investir,
é colaboradorsatisfeito
por ter sido ouvido, é cliente satisfeito. Para poder ter controle, precisa-se de um intrumento diagnóstico de planejamento e gestão dos recursos e processos, que na governança corporativa é o PDI, e na governança de TI o PDTIC.
Depois de ler o artigo, responda a seguinte enquete.
A evolução dos
computadores ao longo do tempo em função da mudança no hardware
(desenvolvimento do componente responsável pelo processamento da informação, ou
seja, evolução da válvula para o transistor, e do transistor para o circuito
integrado) teve como consequência computadores mais rápidos, gasto de energia
menor e tamanho reduzido. Tudo começou com nossos ancestrais controlando
os bens, calculando quantidades, foi algo que acompanhou a humanidade desde os
primórdios das civilizações. Desta necessidade cavaram-se buracos na areia,
colocando pedrinhas dentro para que se controlassem os seus pertences. Foi o
primeiro homem colocar as pedrinhas em uma corda, que nasceu o ábaco que foi
utilizado por mais de 2000 anos até que Blaise Pascal criasse a sua Pascaline, Leibnitz
aperfeiçoasse a Pascaline acrescentando a multiplicação e a divisão. Em 1801
apareceu Joseph Marie Jacquard com seu tear mecânico que utilizava cartões
perfurados alimentando a mente brilhante de Charles Babbage com a sua máquina
analítica cuja entrada dos dados era por cartões perfurados metálicos, e logo
em seguida em 1890 surgia a máquina de tabular de Herman Holerith que deu
origem a uma indústria de máquinas de tabular, e que após transformações virou IBM.
O estímulo para criar o primeiro computador eletrônico foi durante a segunda
guerra mundial segundo Tanembaum (2010, p. 10), pois a artilharia do exército
americano precisava de cálculos precisos e rápidos para atingir os seus alvos,
pois o cálculo manual levava a muitos erros. John Mauchley sabia que o exército
estava interessado em calculadoras eletrônicas, e, em 1943 o mesmo apresentou
uma proposta juntamente com seu aluno de pós-graduação J. Presper Eckert que
foi aceita em 1943, logo em seguida construíram o computador eletrônico que
batizaram de ENIAC. Do ENIAC à válvulas, os componentes evoluíram para
transistores e depois para os circuitos integrados. Com a criação do transistor
vieram outras utilizações, como a utilização dos transistores nas memórias com
tecnologia SRAM, que são utilizadas em memória cache, segundo (Hennessy e Patterson,
2008, p. 223) as SRAMs não precisam ser atualizadas, como as DRAMS (tecnologia
utilizada em memórias RAM que precisam de refresh) e, portanto, o tempo de
acesso é muito próximo ao tempo do ciclo e as SRAMs normalmente utilizam seis
transistores por bit, para impedir que a informação seja modificada quando
lida, só precisando a SRAM de um mínimo de energia para reter a carga no modo
de standby. Entre a primeira e a segunda guerra mundial surgiram máquinas
eletro mecânicas que já faziam vários cálculos, e após o final da segunda
guerra mundial surgiu o ENIAC com as suas válvulas que trabalhavam com a
incrível velocidade de 1000 instruções por segundo, dando origem a primeira
geração dos computadores, a segunda geração foi caracterizada pelos
transistores e a terceira geração foi a dos circuitos integrados. Percebemos
que as gerações foram classificadas em 1ª, 2ª e 3ª geração em função da mudança
no hardware (desenvolvimento do componente responsável pelo processamento da
informação) como linha divisória entre elas, e que alguém menos avisado achou
que quando os circuitos integrados passaram a abrigar dentro deles 10, 100,
1000, 1000000 de transistores ou mais caracterizou o nascimento da 4ª, 5ª, 6ª e
outras gerações. Como a evolução se deu em torno do hardware, deduz-se dentro
de uma análise bem definida que para ser 4ª geração tem que haver mudanças
profundas no hardware, algo muito diferente de circuitos integrados com seus
transistores, ou seja, algo que torne o funcionamento do computador muito
diferente do que é hoje, e isto já está surgindo, o computador quântico cuja
arquitetura é em camadas, não existem instruções, nem barramentos, nem
transistores, ou seja, o processamento dos dados é feito no átomo, podendo ser
utilizado os elétrons, prótons, nêutrons e as partículas menores. O
computador quântico executa cálculos utilizando propriedades da física
quântica, as quais os físicos quânticos não conseguem explicar. Uma destas
propriedades é o fato de o elétron ser uma partícula e se comportar como uma
onda, outro comportamento estranho é o emaranhamento quântico ou entrelaçamento
que é: o que acontece em um átomo
reflete no outro átomo, estes que podem estar a milhões de
quilômetros um do outro, imagine este recurso sendo utilizado para gerar
backups instantâneos. Temos também a superposição:
um corpo pode estar em dois lugares ao mesmo tempo, um qubit pode ser 0 e 1
simultaneamente, ou seja alterou o conceito de bit, porque o bit
assume valores 0 ou 1 e o qubit 0, 1 ou 0 e 1 simultaneamente. Um computador que
utiliza as propriedades da física quântica acima mencionada vai ter que
utilizar um sistema operacional bem diferente dos que existem atualmente, ou,
seja sem instruções. Várias modificações ao longo das gerações dos computadores
foram alterando a rapidez do processamento de dados, a primeira delas foi a
máquina de Von Neumann ou arquitetura de Von Neumann que começou com uma CPU
formada por uma UC (unidade de controle), ULA (unidade lógica e aritmética) que
caracterizam a CPU, uma entrada de dados (unidade i/o), saída de dados (i/o) e
uma memória RAM que até hoje armazenam os dados e instruções, as quais,
carregadas na memória possam ser acessadas pela unidade de controle para que
possam ser lidos e decodificados. A ULA se houver alguma operação lógica ou
aritmética, será acionada para resolvê-los. A memória RAM passou por várias tecnologias
(FPM, EDO, SDRAM, DDR, DDR2, DDR3, DDR4) que ao longo do tempo foram evoluindo
em velocidade, largura de barramento, voltagem na placa mãe, diminuição no
tempo de acesso a leitura dos dados, número de bits transmitidos por ciclo de
clock e, o mais importante, componentes eletrônicos que formam a célula para
armazenamento dos dados na memória. A memória DRAM (dynamic RAM é composta de
um transistor mos e um capacitor para armazenamento de bits na célula), esta
estrutura tem um problema: preciso executar um refresh para reforçar o sinal
armazenado no capacitor (0 ou 1) e isto demanda um tempo gasto pela memória
para manter o dado armazenado confiável. A memória SRAM (static RAM) é composta
por seis transistores ou quatro transistores e dois resistores para
armazenamento dos bits nas células e isto fazem com que o tempo de resposta da
memória estática seja menor, ou seja, mais rápido, ou seja, dois transistores
ficam responsáveis pela tarefa de controle, enquanto que os demais ficam
responsáveis pelo armazenamento elétrico, isto é, pela formação do bit. Os
barramentos da placa mãe (ISA, EISA, PCI, PCIEXPRESS) ao avaliar os diagramas,
verifica-se que, ao longo do tempo, o barramento local (barramento que comunica
a CPU ao subsistema de memória) evoluíram para FSB (barramento que liga a cpu
ao chipset ponte norte) e o Quickpath Interconnect (barramento que liga a CPU
ao chipset ponte sul) utilizando um barramento que transmite simultaneamente
nos dois sentidos. Os Chipsets são evolução de controle por software da memória
CMOS para o barramento EISA, controlador VL BUS para o barramento Vesa local
bus e ponte PCI para o barramento PCI. A rapidez na execução das instruções surgiu com a filosofia RISC que é rápida, pois as instruções são executadas no hardware através de um menor numero de circuitos internos e frequências mais altas, além de os operandos serem armazenados em registradores, diferente do CISC que, possui microcódigo e os operandos são armazenados na memória, tendo como consequência um processamento mais lento em função da leitura na memória ser feita em dois ciclos ou mais, e, no registrador é efetuada a leitura em um ciclo apenas. Quando necessitamos de computadores que necessitam de resposta em tempo real utilizamos RISC, senão, utilizamos CISC. Hoje temos ARM (Advanced RISC Machine) que é uma evolução do RISC, muito utilizados em portáteis (celulares, notebooks, netbooks, tablets e outros).As memórias cache tiveram uma evolução que começou
instalada na placa mãe, depois passou para dentro do processador, hoje temos
memórias cache L1, L2 e L3 (que trabalha na velocidade do processador).
Lembremos que a memória cache na hierarquia das memórias (registradores, cache, RAM, rom, dispositivos de massa) ocupa o segundo lugar, pois a mesma é formada
por transistores, ou transistores e resistores (memórias SRAM). Hoje a
utilização do computador na sociedade é de grande importância, por isso temos
que ter o computador ideal para a tarefa ideal, sendo de vital importância para
a governança de TI,
que tem como um dos objetivos agregar valores reduzindo custos. É relatado ao
longo do texto o surgimento do ábaco, máquinas de calcular até chegar-se ao
computador. Quando surgiu o computador veio às gerações, e com a descoberta do
transistor a evolução dos processadores, memórias e demais recursos que
acompanham os computadores nos dias de hoje. Este artigo procura passar a
compreensão para o leitor, da evolução dos componentes de hardware, tendências
de utilização da física quântica pelos computadores atuais e consequentemente
uma rapidez maior no processamento dos atuais computadores.
A IMPORTÂNCIA DOS DADOS
Quando se fala em processamento dos atuais computadores, estamos mencionando dados que estão sendo transformados, os quais após este processamento viram informações importantes para a empresa que os utilizarão para seu planejamento estratégico. Depois da leitura do texto acima sobre a evolução dos computadores, você se perguntou, de como surgiu o dado? Para início de conversa, o dado é o novo petróleo, sem o armazenamento adequado nos discos rígidos dos computadores, as empresas não teriam como fazer o seu planejamento, e os computadores surgiram, graças à necessidade humana de armazenar dados para poder organizar melhor as nossas tarefas cotidianas. Grato, Jefferson Daminelli Garcia
Depois de ler o artigo, responda a seguinte enquete. O computador foi uma das maiores criações da humanidade, pois ao
longo dos seus 71 anos de existência, contados a partir do primeiro computador
que foi criado e que realmente fazia cálculos: o ENIAC, no ano de 1946. O
objetivo da criação do ENIAC foi o de controlar a rota dos mísseis durante a
segunda guerra mundial, monitorando constantemente a sua trajetória para que
atingisse o alvo com maior precisão. Felizmente a guerra acabou e o destino de
utilização do ENIAC foi comercial (foi criada uma versão batizada de UNIVAC com
este objetivo). O lugar onde ficava o computador, chamava-se CPD (centro de
processamento de dados) e a máquina usada para processamento era chamada de
mainframe, nomenclatura utilizada até hoje para designar os computadores de
grande porte. No início os CPDs tinham a finalidade de fornecer às empresas
infraestrutura necessários para que os “mainframes” funcionassem adequadamente
na execução do processamento de dados. Nos anos 70 surgiram os PCs que
trouxeram a oportunidade à sociedade de se ter um micro computador em casa. Com
o passar dos anos surgiram as planilhas eletrônicas e os editores de textos
para serem utilizados nos PCs, que viabilizaram a automação de trabalhos
simples, aumentando a produtividade e a automação de processos melhorando a
qualidade dos serviços. Nos anos 90 surgiram os aplicativos (sistemas de
informação) que integravam o negócio, ou seja, softwares que integram todos os
dados e processos de uma organização em um único sistema. Estes sistemas de
informação eram os ERPS (enterprise resource planning) planejamento de recursos
da empresa. Nesta fase dos ERPs começava a surgir o gerenciamento de serviços
como papel do CPD, onde se começou a especializar os profissionais, pois se
chegou a conclusão que não havia mais a necessidade de haver um só profissional
(o analista) que cuidava do CPD, mas de profissionais que cuidassem da
infraestrutura física (redes), instalação de servidores (suporte), DBA
(profissional para definir de forma mais eficaz e eficiente um banco de dados,
além de administrá-lo), sistemas de informação (profissionais capazes de
desenvolver sistemas integrados com o banco de dados), web (profissionais para
desenvolvimento de páginas web). Usuários começaram a dar sugestões do que os
sistemas precisavam, integrou-se a área de comunicação (telefonia) ao CPD. A
partir deste instante o CPD, passou a se chamar de TI (tecnologia da
informação), e alguns profissionais mencionam a TI como TIC (tecnologia da
informação e comunicação). No inicio dos anos 2000, as empresas começaram a
perceber que a participação de todos os funcionários na resolução de problemas,
geravam resultados positivos no desenvolvimento de novos sistemas,
aperfeiçoava-se os já existentes, se otimizava outras tarefas, e isto
recebeu o nome de conhecimento organizacional. Na primeira década do século XXI
surgiu o conceito de BIG DATA, que é um volume de dados enorme de várias
plataformas diferentes, e, através de algoritmos machine learning analisam os dados, originando um modelo, que será avaliado por um cientista de dados, que vai analisar se aquele modelo é adequado para gerar conhecimento para a empresa, para torná-la mais competitiva. A partir de 2010
consolidou-se a governança de TI, o que tornou a TI um parceiro estratégico
para a empresa, surgindo o PDTIC (plano diretor de tecnologia da informação e comunicação) que
deve estar alinhado ao PDI (plano de desenvolvimento institucional), agregando
valores ao que é entregue de serviços e / ou produtos pela empresa. Nos dias
atuais, na governança de TI, além das boas
práticas, preciso ter profissionais com conhecimento em ITIL e COBIT, catálogo
de serviços, gerenciamento de serviços, PDTIC, planos de contingência,
compartilhamento de conhecimento, redução de custos, cálculo de
riscos, tudo isto para agregar valor ao que você oferece de serviços, agregando valor ao negócio. Por
último, a sua TI aparece no organograma como unidade independente com um
diretor, e esta unidade independente possui estrutura organizacional de TI
adequada para agregar valor ao seu produto ou serviço? Depois de refletir o que
foi escrito acima, pergunto:
A sua empresa possui CPD ou TI? Grato, Jefferson Daminelli Garcia
Depois de ler o artigo, responda a seguinte enquete.
A utilização do
computador na sociedade vem crescendo todos os dias, atraindo grandes dimensões
de pessoas, o numero de usuários de internet é cada vez maior, por isso temos
que ter o computador ideal para a tarefa ideal, principalmente quando queremos
aumentar a produtividade, com objetivo de ganharmos mais mercado, vencendo a concorrência, vendendo mais,
lucrando mais, gerando mais empregos. Para que tudo isto aconteça é necessário
alinhar a TI com a regra do negócio, divulgando as boas práticas. Este
alinhamento vai ocorrer, se utilizar a biblioteca ITIL que é uma biblioteca de boas práticas de TI, que vai orientar como agregar valor
ao seu produto / serviço entregue com menor custo e risco. Ao executar
esta ação vamos verificar pontos, que, a princípio parecem complicados
resolver, como a atualização de equipamentos, efetuando a troca de placas mães,
memórias (DDR3 por DDR4), HD´s, infraestrutura de redes (trocando cabos
categoria 5e por 6a ou 7a ou 8a), atualizando placas de rede, Switch e outros
ativos de rede. Para agregar valor ao produto / serviço, se errar, deve errar rápido e barato, é isso mesmo se
errar, erre sem trazer altos custos à TI, elimine o desperdício, amplificando o
seu aprendizado, e, entregue o seu produto / serviço o mais rápido que puder
com eficiência e eficácia, isto ocorrerá se você seguir a última etapa do ciclo de serviços do ITIL que é a melhoria de serviços, utilizando uma metodologia muito conhecida, O PDCA (Plan, Do, Check, Action), ou, planejar, fazer, verificar e agir. A grande maioria das empresas tem uma grande
resistência em efetuar a troca de equipamentos, pois na cabeça de muitos
empresários, se “está funcionando” não precisa trocar. Até que um cliente liga
reclamando que o acesso na internet está lento, e este problema se alastra,
tendo como consequência a perda da fatia de mercado conquistada, perda de
clientes, lucro e como consequência dispensa de funcionários. A troca de
equipamentos acima mencionada, por equipamentos mais atualizados, com garantia e suporte contratados dentro das necessidades do negócio da empresa, além de aumentar a velocidade de acesso, traz a
imagem positiva de uma empresa que está com foco no cliente, pois está
agregando valores ao produto, e, principalmente uma economia grande na conta de
luz, pois a atualização de equipamentos traz a redução no consumo de energia.
Ao ter uma ti alinhada a REGRA DE NEGÓCIO,
com PLANEJAMENTO DE GASTOS, treinamento de usuários, PARTICIPAÇÃO DOS COLABORADORES, atualização de equipamentos,
ferramentas adequadas para avaliação de mercado, seguir as boas práticas do ITIL,
a conquista do mercado ocorrerá de forma madura e segura, além de a sua empresa
estar construindo umTI consolidada. A pergunta natural que surge é: Como começo a organizar uma Governança, sem erros e atropelos? Grato, Jefferson Daminelli Garcia