Tim Berners-Lee, é um físico britânico e cientista da computação e professor do MIT, a quem é creditada a invenção do World Wide Web (WWW) e do primeiro navegador, fazendo a primeira proposta para sua criação em março de 1989.. Foi no CERN colocada online O primeiro website (sítio).
"A Web do futuro irá assemelhar-se a uma grande base de dados ou folha de cálculo, em vez de um conjunto de documentos ligados. Será acessível a partir de uma crescente diversidade de redes (wireless, cabo, satélite, etc.) e será disponível numa crescente diversidade de dispositivos. ...as aplicações Web serão cada vez mais presentes no nosso ambiente humano com paredes, tabliers de automóveis e portas de frigoríficos a servir de janelas para a Web."
A principal diferença entre um computador comum e um quântico, é que no primeiro a menor unidade de informação é o Bit, que pode ter dois valores: zero ou um. Seu equivalente quântico é o Qubit(Quantum Bit), que tem um diferencial: pode assumir vários estados superpostos ao mesmo tempo, armazenando mais informação. Um computador quântico fica exponencialmente mais poderoso a cada “Qubit” adicionado, estima-se que mesmo máquinas simples poderiam ser capazes de quebrar, em questão de minutos, cifras criptográficas consideradas impenetráveis para os computadores atuais, já que os cálculos demorariam milhares de vezes mais que o tempo de vida de seus programadores. Fonte: IG
Se utilizada corretamente, em conexão com uma rede de
computadores, o notebook poderia servir para mapear as consequências de um
terremoto de forma imediata, agilizando respostas de emergência e salvando
vidas. Ele contém em seu interior um pequeno acelerômetro - um chip destinado a
detectar movimentos bruscos e quedas, a fim de proteger as delicadas partes
móveis do seu HD. Esse acelerômetro é um sensor para detectar terremotos, uma
pesquisadora teve uma idéia usar milhares, ou até milhões, de notebooks ao
redor do mundo como sensores para detectar e medir a intensidade dos inúmeros
terremotos e pequenos tremores que acontecem o tempo todo. A pesquisadora
Elizabeth Cochran, da Universidade da Califórnia, nos Estados Unidos, diz:
“Com muitos mais sensores baratos, em vez de calcular onde
os terremotos mais fortes foram sentidos, por meio da interpolação entre os
sensores (profissionais instalados), nós seremos capazes de saber imediatamente
onde os grandes abalos foram sentidos porque nós teremos sensores lá"
O C++ (em português lê-se "cê mais mais") é uma linguagem de programaçãomulti-paradigma e de uso geral. A linguagem é considerada de médio nível, pois combina características de linguagens de alto e baixo níveis. Desde os anos 1990 é uma das linguagens comerciais mais populares, sendo bastante usada também na academia por seu grande desempenho e base de utilizadores.
Bjarne Stroustrup (imagem ao lado) desenvolveu o C++ (originalmente com o nome C with Classes, que significa C com classes em português) em 1983 no Bell Labs como um adicional à linguagem C. Novas características foram adicionadas com o tempo, como funções virtuais, sobrecarga de operadores, herança múltipla, gabaritos e tratamento de exceções. Após a padronização ISO realizada em 1998 e a posterior revisão realizada em 2003, uma nova versão da especificação da linguagem foi lançada em setembro de 2011, conhecida informalmente como C++11 ou C++0x.
Alguns aplicativos desenvolvidos em C++
Abaixo segue uma lista de exemplos de aplicativos parcial ou totalmente escritos em C++, de acordo com Bjarne Stroustrup, que não garante sua precisão e veracidade, ainda que seja responsável por sua publicação.
Com a evolução dos computadores,
observamos vários avanços na vida do homem em coexistência com a natureza. A
melhoria da qualidade de vida deu-se, também, pelo o avanço dos computadores,
os quais facilitaram os processos de diagnósticos em geral, tais como
ressonância magnética, endoscopia, radiografia, etc..
Hoje ouvimos falar de vários
tipos de aplicações da tecnologia, mas nessa postagem vamos abordar um assunto
interessante que é estudado em várias instituições respeitadíssimas no mundo. A
robótica...
A robótica é a área da computação
que envolve o uso de robôs, controlados por meio de sistemas computacionais,
que utiliza desses sistemas para a parte mecânica. Controlados por circuitos integrados
a união dessas áreas torna uma mecânica motorizada, podendo ser pré-programados
ou controlados manualmente.
O aumento de produção de grandes
empresas deu-se através de ferramentas que aceleraram o processo de construção
de produtos que são comuns à sociedade. Atualmente utiliza-se na linha de
montagem de carros, braços mecânicos. Outras formas de utilização da robótica
são presentes no cotidiano mundial, como braços robóticos que realizam
cirurgia, robôs de vigilância para desarmar bombas, robôs aspiradores de pó,
etc..
Na postagem anterior sobre Robôs, fala-se sobre robôs de uma forma usual, com utilidade daqui a alguns anos para a sociedade, como robôs faxineiros, guarda de segurança e até como brinquedo.
Para quem quiser saber mais sobre robótica, assista o vídeo:
E se quiserem ficar sabendo mais os sites seguintes estão disponíveis:
Este
modelo é uma tendência para a internet do futuro e proporciona acesso a
redes, servidores, armazenamento, aplicativos e serviços de qualquer localidade
a uma rede compartilhada de recursos de computação disponibilizando com rapidez
e liberados com o mínimo de esforço e gestão.
Tem diversas características, facilidades e vantagens, tais como:
Auto-atendimento
sob demanda: não há necessidade de interação
humana com o prestador de serviço;
Amplo
acesso à rede: possibilitam
acessos por meio de mecanismos-padrão promovendo o uso da plataformas-cliente
com qualquer capacidade de processamento;
Software
como Serviço : destina-se à infra-estrutura criada ou comprada
pelo consumidor para a nuvem;
Plataforma
como Serviço: inclui rede, servidores, sistemas
operacionais ou armazenamento, com controle sobre os aplicativos implementados
e sobre as configurações para o ambiente de hospedagem de aplicativos.
Nuvem
privada: para uso exclusivo por uma organização,
compreendendo múltiplos consumidores;
Nuvem
pública: para uso aberto ao público em
geral;
Pode-se observar que a computação na nuvem trabalha diretamente a segurança da informação, a mobilidade de acesso aos dados, e grande demanda para serviços práticos executados on-line.
A definição completa de computação em nuvem está disponível, clique aqui.
Famoso por suas lendárias proezas como programador (como ter escrito o kernel do BSD sozinho em um fim de semana), o co - fundador da Sun, é responsável pela criaçao do VI e do Csh, além de ter escrito o ensaio "Porque o futuro não precisa de nós" ('Why the future doesn't need us"), demonstrando sua preocupação com o desenvolvimento de tecnologias modernas, robotização de humanos e máquinas auto - replicáveis.
“Eu
estabeleci algumas regras pessoais de conduta para guiar a minha
atuação. Eu já avisei que não irei trabalhar com nanotecnologia ou com
eletrônica molecular, porque eu considero que essas são áreas que
apresentam risco – além do fato óbvio de que eu não estou qualificado
para trabalhar em biologia computacional ou robôs. Em algum momento no
futuro, eu posso decidir que não devo mais trabalhar na indústria de
computadores, mas, por ora, eu acho que o meu trabalho em computação faz
mais bem do que mal. Mas eu estou reavaliando isso constantemente.”
Veja mais sobre a entrevista de Joy, e a polêmica criada.
A partir do uso dos circuitos integrados na construção dos
computadores, percebe-se o aumento do desempenho, diminuição do tamanho e
economia de energia – mais a frente, na história da computação, pode-se
perceber um fator muito importante: a acessibilidade. Os computadores que
antigamente eram bem difíceis de ser encontrados (geralmente eram grandes
empresas, instituições governamentais e a alta classe que obtinham dessa
ferramenta), e hoje são fácil acesso.
Como que se pode utilizar um equipamento tão pequeno, no
entanto mais eficaz, mais rápido e mais econômico que os computadores passados?
Os novos lançamentos de tablets são de assustar se comparar
com os computadores de vinte ou trinta anos atrás, tanto no tamanho quanto na
capacidade de armazenamento de dados ou desempenho de sistema.
Mas é comum pensar que essa tecnologia é recente... No
entanto, no fim da década de 80 se tem o GRiDpad Pen Computer ,
que podemos chamar de “tablet”, que chamava atenção por ser um dispositivo,
para a época, de alta tecnologia com aproximadamente 2kg e um processador de 20
MHz, e ainda com uma caneta para se interagir com o sistema.
Hoje a disputa entre nos tablets está acirrada. A inovação da Apple, com o lançamento do iPad, chama atenção dos usuários do mundo inteiro pelo fato de ser de fácil acesso, com o sistema IOS, processador Dual Core A5. Por outro lado os lançamentos da Samsung também inovadores, como o Galaxy Tab 10.1, com o sistema operacional Android ou Honeycomb (Android 3.0) está no páreo, também. Hoje é comum ver tablets de outras marcas. No Brasil, o primeiro tablet lançado foi o da Positivo, o Positivo YPY, o qual é esperança para a tecnologia e economia brasileira.
James Gosling, programador canadense, criou a linguagem Java enquanto trabalhava para a Sun Microsystems em 1995, e era chefe do Green Project, onde os pesquisadores acreditavam que em pouco tempo os computadores remotos estariam conectados aos aparelhos eletrodomésticos. Baseada no C++, a linguagem Java foi rapidamente incorporada na história da informática, por ser simples e dinâmica, permite criar e editar programas na web sem precisar de outra linguagem.
Recentemente ele se desvinculou da Sun, já vendida para a Oracle e anunciou no seu blog que a partir daquele momento estava trabalhando para o Google. Foi eleito para a United States National Academy of Engineering e recebeu o prêmio Prêmio Tsutomu Kanai (2003)
Cientistas da Universidade de Swinburne, na Austrália, estão desenvolvendo um projeto de nanotecnologia para produzir uma mídia capaz de guardar 1 petabyte de dados. Aos menos informados: 1 petabyte é equivalente a 1024 terabytes, ou 1.125.899.906.842.624 bytes. O desenvolvimento do projeto durará cinco anos e serão gastos US$ 1 milhão.
Esta midia seria suficiente para guardar 200 mil DVDs ou 20 mil mídias de Blu-ray, sucessor do DVD.
Foi descoberto que 99,9% do espaço de um CD normal é desperdiçado, apenas 0,1% do CD são usados para o armazenamento de dados. Com base nestas informações, o objetivo é desenvolver uma técnica em que o espaço “desperdiçado” fosse usado para o armazenamento de dados.
A quinta geração foi marcada pelo desenvolvimento e aperfeiçoamento do Sistema Operacional, que é o elemento principal de interação entre usuário-máquina.
A partir do aperfeiçoamento do Sistema Operacional, tornou a interação homem-máquina bem mais prática, e facilitou muito a criação dos computadores pessoais, que antes disso, somente eram utilizados em empresas.
Dos mais destacados, podemos citar o Macintosh, com o Mac OS 1.0, Sistema Operacional da Apple, empresa da dupla de jovens Steve Jobs e Steve Wozniak, e o Sistema Operacional Windows (antes, somente MS-DOS, da Parceria entre IBM e Microsoft), Sistema Operacional da empresa Microsoft, que inicialmente cresceu devido a parceria entre IBM e Microsoft, empresa de Bill Gates e Paul Allen.
Mais informações sobre Sistema Operacional, clique aqui.
Segue alguns links de apoio sobre a evolução dos sistemas operacionais:
Link de imagem demonstrando desktops das versões Windows x Mac OS - Clique aqui.
Link com imagens de como eram as primeiras versões dos sistemas operacionais - Clique aqui.
O fim de ano está chegando e que tal pedir de presente um robô de estimação? Isso mesmo! Quem pensa que ainda estamos longe dessa realidade, há muito tempo difundida nas telas do cinema, está muito atrasado. Já existem robôs que trabalham como guardas de segurança - que patrulham corredores e celas do presídio, avisando sobre qualquer comportamento anômalo, faxineiros - que reconhecem pessoas e objetos e quando encontram alguém no caminho ainda são super educados, falando: "Por favor, saia do meu caminho, eu estou limpando esta sala" e tem até um robô urso que faz o dono dormir melhor!
Tá certo que não é qualquer um que pode comprar essas belezinhas daí de cima, mas o site Uol Tecnologia disponibilizou uma pequena amostra dos robôs que já estão a venda, vale a pena conferir!
Além disso, pesquisadores do Instituto de Tecnologia da Geórgia nos Estados Unidos, desenvolveram o transístor orgãnico dobrável, para facilitar o desenvolvimentos de eletrônicos flexíveis. Clique aqui para saber mais.
A ficção sempre nos mostrou que os computadores chegariam cada vez mais perto de se parecer com os humanos. Fantasia? Sonho? Com as tecnologias de mudança de fase, talvez com os materias de mudança de fase, isso se torne, cada vez mais, realidade.
A diferença entre o nosso cérebro e o computador, é que o último trabalha com processamento e memória de maneira separada, enquanto nosso cérebro não distingue um do outro. Porém com essa nova tecnologia é possivel armazenar e processar simultaneamente, além da possibilidade de se construir neurônios e sinapses artificiais.
Várias empresas já trabalham com chips de memórias de mudança de fase, que podem ler dados mais rápido que um disco flash ou disco rígido.
“Descobrimos uma técnica de desenvolvimento de potenciais novos sistemas computacionais cerebrais, capazes de aprender, adaptar e mudar ao longo do tempo. Isso é algo pelo qual os investigadores se têm vindo a esforçar, ao longo de muitos anos”.