Postagens do Blog

terça-feira, 31 de outubro de 2017

A IMPORTÂNCIA DO CONHECIMENTO ORGANIZACIONAL

Depois de ler o artigo, responda a seguinte enquete.
A IMPORTÂNCIA DO CONHECIMENTO ORGANIZACIONAL


Ao longo da história vários fatos ocorreram até chegarmos á percepção da necessidade de um bom conhecimento organizacional. Um destes fatos que aconteceram começaram com a descoberta da escrita, que originou o alfabeto, onde foram formadas palavras, textos, até chegar em escritos com significados importantes, e estes significados importantes através da percepção e/ou experiência geraram o conhecimento, e o conjunto destes o saber, até chegarmos no armazenamento destes dados na forma de bytes.
Conhecimento organizacional começou a ser percebido dentro das empresas junto com a necessidade de se efetuar planejamento estratégico. Fazer o planejamento estratégico é pensar antes de agir, e para que isto seja feito, necessita-se saber como andam a contabilidade, o financeiro, enfim informações necessárias para se projetar os orçamentos e ganhos para o próximo ano, dentro da missão, visão e valores da empresa. E para tudo isto ocorrer precisa ter uma boa comunicaçãoConhecimento compartilhado é conhecimento transformado em benefício da empresa. É economia aos cofres da empresa, é dinheiro que sobra para investir, é colaborador satisfeito por ter sido ouvido, é cliente satisfeito. Para poder ter controle, precisa-se de um intrumento diagnóstico de planejamento e gestão dos recursos e processos, que na governança corporativa é o PDI, e na governança de TI o PDTIC.


Grato,
Jefferson Daminelli Garcia



Veja também:

ENTENDER O PORQUÊ DAS GERAÇÕES DOS COMPUTADORES



Depois de ler o artigo, responda a seguinte enquete.

A evolução dos computadores ao longo do tempo em função da mudança no hardware (desenvolvimento do componente responsável pelo processamento da informação, ou seja, evolução da válvula para o transistor, e do transistor para o circuito integrado) teve como consequência computadores mais rápidos, gasto de energia menor e tamanho reduzido. Tudo começou com nossos ancestrais controlando os bens, calculando quantidades, foi algo que acompanhou a humanidade desde os primórdios das civilizações. Desta necessidade cavaram-se buracos na areia, colocando pedrinhas dentro para que se controlassem os seus pertences. Foi o primeiro homem colocar as pedrinhas em uma corda, que nasceu o ábaco que foi utilizado por mais de 2000 anos até que Blaise Pascal criasse a sua Pascaline, Leibnitz aperfeiçoasse a Pascaline acrescentando a multiplicação e a divisão. Em 1801 apareceu Joseph Marie Jacquard com seu tear mecânico que utilizava cartões perfurados alimentando a mente brilhante de Charles Babbage com a sua máquina analítica cuja entrada dos dados era por cartões perfurados metálicos, e logo em seguida em 1890 surgia a máquina de tabular de Herman Holerith que deu origem a uma indústria de máquinas de tabular, e que após transformações virou IBM. O estímulo para criar o primeiro computador eletrônico foi durante a segunda guerra mundial segundo Tanembaum (2010, p. 10), pois a artilharia do exército americano precisava de cálculos precisos e rápidos para atingir os seus alvos, pois o cálculo manual levava a muitos erros. John Mauchley sabia que o exército estava interessado em calculadoras eletrônicas, e, em 1943 o mesmo apresentou uma proposta juntamente com seu aluno de pós-graduação J. Presper Eckert que foi aceita em 1943, logo em seguida construíram o computador eletrônico que batizaram de ENIAC. Do ENIAC à válvulas, os componentes evoluíram para transistores e depois para os circuitos integrados. Com a criação do transistor vieram outras utilizações, como a utilização dos transistores nas memórias com tecnologia SRAM, que são utilizadas em memória cache, segundo (Hennessy e Patterson, 2008, p. 223) as SRAMs não precisam ser atualizadas, como as DRAMS (tecnologia utilizada em memórias RAM que precisam de refresh) e, portanto, o tempo de acesso é muito próximo ao tempo do ciclo e as SRAMs normalmente utilizam seis transistores por bit, para impedir que a informação seja modificada quando lida, só precisando a SRAM de um mínimo de energia para reter a carga no modo de standby. Entre a primeira e a segunda guerra mundial surgiram máquinas eletro mecânicas que já faziam vários cálculos, e após o final da segunda guerra mundial surgiu o ENIAC com as suas válvulas que trabalhavam com a incrível velocidade de 1000 instruções por segundo, dando origem a primeira geração dos computadores, a segunda geração foi caracterizada pelos transistores e a terceira geração foi a dos circuitos integrados. Percebemos que as gerações foram classificadas em 1ª, 2ª e 3ª geração em função da mudança no hardware (desenvolvimento do componente responsável pelo processamento da informação) como linha divisória entre elas, e que alguém menos avisado achou que quando os circuitos integrados passaram a abrigar dentro deles 10, 100, 1000, 1000000 de transistores ou mais caracterizou o nascimento da 4ª, 5ª, 6ª e outras gerações. Como a evolução se deu em torno do hardware, deduz-se dentro de uma análise bem definida que para ser 4ª geração tem que haver mudanças profundas no hardware, algo muito diferente de circuitos integrados com seus transistores, ou seja, algo que torne o funcionamento do computador muito diferente do que é hoje, e isto já está surgindo, o computador quântico cuja arquitetura é em camadas, não existem instruções, nem barramentos, nem transistores, ou seja, o processamento dos dados é feito no átomo, podendo ser utilizado os elétrons, prótons, nêutrons e as partículas menores.  O computador quântico executa cálculos utilizando propriedades da física quântica, as quais os físicos quânticos não conseguem explicar. Uma destas propriedades é o fato de o elétron ser uma partícula e se comportar como uma onda, outro comportamento estranho é o emaranhamento quântico ou entrelaçamento que é: o que acontece em um átomo reflete no outro átomo, estes que podem estar a milhões de quilômetros um do outro, imagine este recurso sendo utilizado para gerar backups instantâneos. Temos também a superposição: um corpo pode estar em dois lugares ao mesmo tempo, um qubit pode ser 0 e 1 simultaneamente, ou seja alterou o conceito de bit, porque o bit assume valores 0 ou 1 e o qubit 0, 1 ou 0 e 1 simultaneamente. Um computador que utiliza as propriedades da física quântica acima mencionada vai ter que utilizar um sistema operacional bem diferente dos que existem atualmente, ou, seja sem instruções. Várias modificações ao longo das gerações dos computadores foram alterando a rapidez do processamento de dados, a primeira delas foi a máquina de Von Neumann ou arquitetura de Von Neumann que começou com uma CPU formada por uma UC (unidade de controle), ULA (unidade lógica e aritmética) que caracterizam a CPU, uma entrada de dados (unidade i/o), saída de dados (i/o) e uma memória RAM que até hoje armazenam os dados e instruções, as quais, carregadas na memória possam ser acessadas pela unidade de controle para que possam ser lidos e decodificados. A ULA se houver alguma operação lógica ou aritmética, será acionada para resolvê-los. A memória RAM passou por várias tecnologias (FPM, EDO, SDRAM, DDR, DDR2, DDR3, DDR4) que ao longo do tempo foram evoluindo em velocidade, largura de barramento, voltagem na placa mãe, diminuição no tempo de acesso a leitura dos dados, número de bits transmitidos por ciclo de clock e, o mais importante, componentes eletrônicos que formam a célula para armazenamento dos dados na memória. A memória DRAM (dynamic RAM é composta de um transistor mos e um capacitor para armazenamento de bits na célula), esta estrutura tem um problema: preciso executar um refresh para reforçar o sinal armazenado no capacitor (0 ou 1) e isto demanda um tempo gasto pela memória para manter o dado armazenado confiável. A memória SRAM (static RAM) é composta por seis transistores ou quatro transistores e dois resistores para armazenamento dos bits nas células e isto fazem com que o tempo de resposta da memória estática seja menor, ou seja, mais rápido, ou seja, dois transistores ficam responsáveis pela tarefa de controle, enquanto que os demais ficam responsáveis pelo armazenamento elétrico, isto é, pela formação do bit. Os barramentos da placa mãe (ISA, EISA, PCI, PCIEXPRESS) ao avaliar os diagramas, verifica-se que, ao longo do tempo, o barramento local (barramento que comunica a CPU ao subsistema de memória) evoluíram para FSB (barramento que liga a cpu ao chipset ponte norte) e o Quickpath Interconnect (barramento que liga a CPU ao chipset ponte sul) utilizando um barramento que transmite simultaneamente nos dois sentidos. Os Chipsets são evolução de controle por software da memória CMOS para o barramento EISA, controlador VL BUS para o barramento Vesa local bus e ponte PCI para o barramento PCI. A rapidez na execução das instruções surgiu com a filosofia RISC que é rápida, pois as instruções são executadas no hardware através de um menor numero de circuitos internos e frequências mais altas, além de os operandos serem armazenados em registradores, diferente do CISC que, possui microcódigo e os operandos são armazenados na memória, tendo como consequência um processamento mais lento em função da leitura na memória ser feita em dois ciclos ou mais, e, no registrador é efetuada a leitura em um ciclo apenas. Quando necessitamos de computadores que necessitam de resposta em tempo real utilizamos RISC, senão, utilizamos CISC. Hoje temos ARM (Advanced RISC Machine) que é uma evolução do RISC, muito utilizados em portáteis (celulares, notebooks, netbooks, tablets e outros).As memórias cache tiveram uma evolução que começou instalada na placa mãe, depois passou para dentro do processador, hoje temos memórias cache L1, L2 e L3 (que trabalha na velocidade do processador). Lembremos que a memória cache na hierarquia das memórias (registradores, cache, RAM, rom, dispositivos de massa) ocupa o segundo lugar, pois a mesma é formada por transistores, ou transistores e resistores (memórias SRAM). Hoje a utilização do computador na sociedade é de grande importância, por isso temos que ter o computador ideal para a tarefa ideal, sendo de vital importância para a governança de TI, que tem como um dos objetivos agregar valores reduzindo custos. É relatado ao longo do texto o surgimento do ábaco, máquinas de calcular até chegar-se ao computador. Quando surgiu o computador veio às gerações, e com a descoberta do transistor a evolução dos processadores, memórias e demais recursos que acompanham os computadores nos dias de hoje. Este artigo procura passar a compreensão para o leitor, da evolução dos componentes de hardware, tendências de utilização da física quântica pelos computadores atuais e consequentemente uma rapidez maior no processamento dos atuais computadores.


A IMPORTÂNCIA DOS DADOS

Quando se fala em processamento dos atuais computadores, estamos mencionando dados que estão sendo transformados, os quais após este processamento viram informações importantes para a empresa que os utilizarão para seu planejamento estratégico. Depois da leitura do texto acima sobre a evolução dos computadores, você se perguntou, de como surgiu o dado? Para início de conversa, o dado é o novo petróleo, sem o armazenamento adequado nos discos rígidos dos computadores, as empresas não teriam como fazer o seu planejamento, e os computadores surgiram, graças à necessidade humana de armazenar dados para poder organizar melhor as nossas tarefas cotidianas.

Grato,
Jefferson Daminelli Garcia



Veja também:





ANÁLISE DA INFRA ESTRUTURA DE EMPRESAS QUE POSSUEM TI



ANÁLISE  DA INFRA ESTRUTURA DE EMPRESAS QUE POSSUEM TI


Depois de ler o artigo, responda a seguinte enquete.
O computador foi uma das maiores criações da humanidade, pois ao longo dos seus 71 anos de existência, contados a partir do primeiro computador que foi criado e que realmente fazia cálculos: o ENIAC, no ano de 1946. O objetivo da criação do ENIAC foi o de controlar a rota dos mísseis durante a segunda guerra mundial, monitorando constantemente a sua trajetória para que atingisse o alvo com maior precisão. Felizmente a guerra acabou e o destino de utilização do ENIAC foi comercial (foi criada uma versão batizada de UNIVAC com este objetivo). O lugar onde ficava o computador, chamava-se CPD (centro de processamento de dados) e a máquina usada para processamento era chamada de mainframe, nomenclatura utilizada até hoje para designar os computadores de grande porte. No início os CPDs tinham a finalidade de fornecer às empresas infraestrutura necessários para que os “mainframes” funcionassem adequadamente na execução do processamento de dados. Nos anos 70 surgiram os PCs que trouxeram a oportunidade à sociedade de se ter um micro computador em casa. Com o passar dos anos surgiram as planilhas eletrônicas e os editores de textos para serem utilizados nos PCs, que viabilizaram a automação de trabalhos simples, aumentando a produtividade e a automação de processos melhorando a qualidade dos serviços. Nos anos 90 surgiram os aplicativos (sistemas de informação) que integravam o negócio, ou seja, softwares que integram todos os dados e processos de uma organização em um único sistema. Estes sistemas de informação eram os ERPS (enterprise resource planning) planejamento de recursos da empresa. Nesta fase dos ERPs começava a surgir o gerenciamento de serviços como papel do CPD, onde se começou a especializar os profissionais, pois se chegou a conclusão que não havia mais a necessidade de haver um só profissional (o analista) que cuidava do CPD, mas de profissionais que cuidassem da infraestrutura física (redes), instalação de servidores (suporte), DBA (profissional para definir de forma mais eficaz e eficiente um banco de dados, além de administrá-lo), sistemas de informação (profissionais capazes de desenvolver sistemas integrados com o banco de dados), web (profissionais para desenvolvimento de páginas web). Usuários começaram a dar sugestões do que os sistemas precisavam, integrou-se a área de comunicação (telefonia) ao CPD. A partir deste instante o CPD, passou a se chamar de TI (tecnologia da informação), e alguns profissionais mencionam a TI como TIC (tecnologia da informação e comunicação). No inicio dos anos 2000, as empresas começaram a perceber que a participação de todos os funcionários na resolução de problemas, geravam resultados positivos no desenvolvimento de novos sistemas, aperfeiçoava-se os já existentes, se otimizava outras tarefas, e isto recebeu o nome de conhecimento organizacional. Na primeira década do século XXI surgiu o conceito de BIG DATA, que é um volume de dados enorme de várias plataformas diferentes, e, através de algoritmos machine learning analisam os dados, originando um modelo, que será avaliado por um cientista de dados, que vai analisar se aquele modelo é adequado para gerar conhecimento para a empresa, para torná-la mais competitiva. A partir de 2010 consolidou-se a governança de TI, o que tornou a TI um parceiro estratégico para a empresa, surgindo o PDTIC (plano diretor de tecnologia da informação e comunicação) que deve estar alinhado ao PDI (plano de desenvolvimento institucional), agregando valores ao que é entregue de serviços e / ou produtos pela empresa. Nos dias atuais, na governança de TI, além das boas práticas, preciso ter profissionais com conhecimento em ITIL e COBIT, catálogo de serviços, gerenciamento de serviços, PDTIC, planos de contingência, compartilhamento de  conhecimento, redução de custos, cálculo de riscos, tudo isto para agregar valor ao que você oferece de serviços, agregando valor ao negócio. Por último, a sua TI aparece no organograma como unidade independente com um diretor, e esta unidade independente possui estrutura organizacional de TI adequada para agregar valor ao seu produto ou serviço? Depois de refletir o que foi escrito acima, pergunto:
A sua empresa possui CPD ou TI?
Grato,
Jefferson Daminelli Garcia


Veja também:
https://jeffersondgarcia.blogspot.com.br/p/atualidades.html

A Cibernética dentro das organizações







GOVERNANÇA DE TI

GOVERNANÇA DE TI

Depois de ler o artigo, responda a seguinte enquete.
A utilização do computador na sociedade vem crescendo todos os dias, atraindo grandes dimensões de pessoas, o numero de usuários de internet é cada vez maior, por isso temos que ter o computador ideal para a tarefa ideal, principalmente quando queremos aumentar a produtividade, com objetivo de ganharmos mais mercado, vencendo a concorrência, vendendo mais, lucrando mais, gerando mais empregos. Para que tudo isto aconteça é necessário alinhar a TI com a regra do negócio, divulgando as boas práticas. Este alinhamento vai ocorrer, se utilizar a biblioteca ITIL que é uma biblioteca de boas práticas de TI, que vai  orientar como agregar valor ao seu produto / serviço entregue com menor custo e risco. Ao executar esta ação vamos verificar pontos, que, a princípio parecem complicados resolver, como a atualização de equipamentos, efetuando a troca de placas mães, memórias (DDR3 por DDR4), HD´s, infraestrutura de redes (trocando cabos categoria 5e por 6a ou 7a ou 8a), atualizando placas de rede, Switch e outros ativos de rede. Para agregar valor ao produto / serviço, se errar, deve errar rápido e barato, é isso mesmo se errar, erre sem trazer altos custos à TI, elimine o desperdício, amplificando o seu aprendizado, e, entregue o seu produto / serviço o mais rápido que puder com eficiência e eficácia, isto ocorrerá se você seguir a última etapa do ciclo de serviços do ITIL que é a melhoria de serviços, utilizando uma metodologia muito conhecida, O PDCA (Plan, Do, Check, Action), ou, planejar, fazer, verificar e agir. A grande maioria das empresas tem uma grande resistência em efetuar a troca de equipamentos, pois na cabeça de muitos empresários, se “está funcionando” não precisa trocar. Até que um cliente liga reclamando que o acesso na internet está lento, e este problema se alastra, tendo como consequência a perda da fatia de mercado conquistada, perda de clientes, lucro e como consequência dispensa de funcionários. A troca de equipamentos acima mencionada, por equipamentos mais atualizados, com garantia e suporte contratados dentro das necessidades do negócio da empresa, além de aumentar a velocidade de acesso, traz a imagem positiva de uma empresa que está com foco no cliente, pois está agregando valores ao produto, e, principalmente uma economia grande na conta de luz, pois a atualização de equipamentos traz a redução no consumo de energia. Ao ter uma ti alinhada a REGRA DE NEGÓCIO, com PLANEJAMENTO DE GASTOS, treinamento de usuários, PARTICIPAÇÃO DOS COLABORADORESatualização de equipamentos, ferramentas adequadas para avaliação de mercado, seguir as boas práticas do ITIL, a conquista do mercado ocorrerá de forma madura e segura, além de a sua empresa estar construindo um TI consolidada. A pergunta natural que surge é: Como começo a organizar uma Governança, sem erros e atropelos?
Grato,
Jefferson Daminelli Garcia



Veja também:
https://jeffersondgarcia.blogspot.com.br/p/atualidades.html



Postagem em Destaque

Maquina Virtual

  O QUE É UMA MÁQUINA VIRTUAL Uma máquina virtual , conhecida como guest, é criada dentro de um ambiente de processamento, chamado host. ...

Postagens Mais Visitadas

Últimas Postagens