Mostrando postagens com marcador História. Mostrar todas as postagens
Mostrando postagens com marcador História. Mostrar todas as postagens

quinta-feira, 21 de abril de 2022

Como a indústria dos videogames foi afetada pela crise de semicondutores... de 1988.

Estamos no ano de 2022 e ainda sentimos os efeitos da crise de semicondutores que se iniciou em 2020. Esta crise teve como maior catalizador a pandemia de Covid-19, que aumentou a demanda de conectividade, em contrapartida obrigando fabricantes implementar formas de trabalho mais seguras (em relação ao contágio por Covid-19) que muitas vezes reduzem a capacidade produtiva. Assim, a primeira metade de 2020 viu uma queda de demanda de automóveis (por consequência a queda de demanda para eletrônica automotiva) e um aumento da demanda de semicondutores para laptops, smartphones, etc. Assim, as empresas priorizaram a produção de semicondutores para este segmento (era mais lucrativo para elas naquele momento). Porém a demanda de semicondutores automotivos aumentou drasticamente na segunda metade de 2020. Desta forma, tornou-se um problema suprir toda a demanda de semicondutores atual1.
Esta situação obviamente se reflete também na indústria de videogames. O mais afetado é o Playstation 5, que tem uma alta procura que não pode ser atendida por enquanto2. Curiosamente esta não é a primeira crise de semicondutores que já enfrentou-se. E curiosamente a indústria de videogames também foi afetada por outras crises. Este post é dedicado portanto à crise de semicondutores que ocorreu em 1988 e que afetou a Nintendo. A primeira vez que me apareceu esta história foi assistindo um vídeo sobre a história de Super Mario 33, que comentaremos em outra oportunidade. Ali ele menciona que "uma nova geração de semicondutores e novas tecnologias de chips fizeram produtores diminuir sua capacidade de produção"4. A verdade é que esta crise foi resultado de um grande tiro no pé que o governo dos EUA fizeram.

A crise de semicondutores de 1988


O ano era de 1986. Com o aumento do número de computadores, a produção de semicondutores, sobretudo de memórias, estava a todo vapor. A concorrência acirrada fez com que o preço das memórias caísse a um patamar nunca antes visto. Várias empresas produtoras de memória eram do Japão.
No ano anterior, a Semiconductor Industry Association nos Estados Unidos havia acusado o Japão de fazer concorrência desleal por favorecer indústrias locais na venda de chips5. Já em 1986, o U.S. Commerce Department acusou o Japão de inundar o mercado americano com chips de memória RAM a preços menores que os preços de mercado, com a intenção de retirar empresas americanas do mercado. Não tardou muito para o governo Reagan colocar sanções econômicas para o país, fazendo o preço de produtos eletrônicos japoneses ficar o dobro do preço. Tudo isto foi uma vitória para a indústria de semicondutores dos Estados Unidos. Por outro lado, estas sanções tiveram um efeito não previsto. Com as sanções, o Japão se viu obrigado a entrar em um pacto com os EUA para produzir semicondutores. Neste pacto as empresas japonesas iriam produzir a metade de sua capacidade, o que reduziu bastante a oferta de semicondutores e permitiria empresas americanas a concorrer com as empresas japonesas. No entanto, as empresas americanas não estavam preparadas ainda para produzir a quantidade necessária para suprir as demandas da época. Com as empresas japonesas reduzindo sua produção pela metade, não havia mais chips de memória RAM disponíveis para todo mundo. A situação estava tão complicada que o vice-presidente de marketing da Nintendo, Peter T. Main, comentou ao Los Angeles Times que ao fim daquele ano, a produção estaria em 10 a 15 % da real demanda de mercado6. Sim, a Nintendo estava preocupada com esta crise.

Consequências da crise

O efeito mais conhecido desta crise na indústria dos games foi o atraso do lançamento de Zelda II: The adventure of Link7. Mas a crise também teve outros efeitos, com atrasar mais ainda o lançamento do tão aguardado Super Mario 3 no mercado americano. Aparentemente alguns jogos da Sega também foram atrasados por causa desta crise, porém a Sega, por utilizar tecnologias diferentes que não foram afetadas por esta crise, acabou se saindo melhor.

Referências:

1. SNECI. An update on the semiconductor crisis and its impact early 2022. Acessado em  https://www.sneci.com

2. NME. Sony CEO admits it will be “some time” before PS5 shortages are over.  Acessado em https://www.nme.com

3. Gaming Historian, The Story of Super Mario Bros. 3. Acessado em https://www.youtube.com/watch?v=MxT6IwUtLSU

4. ibid.

5. SMITH, Ernie. Out of Memory Error. Acessado em https://tedium.co

6. ibid.

7. LAZZARESCHI, Carla. High-Tech Crisis Forces Publishers to Make Tough Choices : Shortage of Memory Chips Hurting Video Game Makers. Acessado em https://web.archive.org

terça-feira, 22 de novembro de 2016

A história dos games no Brasil

O Brasil é realmente um país bastante peculiar em relação aos games... Principalmente a sua relação com a pirataria. E foi na pirataria e na cópia de jogos que a indústria nacional de games se desenvolveu.
Esta história dos games brasileiros é tão interessante que atraiu a atenção da Red Bull, que fez um documentário só sobre a indústria nacional de games. E para nossa alegria, há uma versão do documentário em português. Para aqueles interessados nesta história, o link para o documentário se encontra neste link: http://www.redbull.com/br/pt/games/stories/1331828275602/serie-paralelos-narra-pirataria-de-games-no-brasil

quarta-feira, 4 de novembro de 2015

História do jitter, parte 3: TEB em função do jitter

Figura 1: Capturando um sinal mais longe do centro da
cruz azul resulta em um TEB de 10-3, enquanto que
capturá-lo próximo do centro resulta em um TEBde 10-12.
Se você está acompanhando nossa história do jitter, nós terminamos na Parte II no final dos anos 90, onde taxas de erro de bit (TEB) se tornaram uma predominante estatística para quantificar jitter. Isto foi subsequentemente refinado ao se pensar em termos de TEB como uma função do jitter.

Observar a TEB como função do jitter visto em um receptor depende de duas coisas: quanto jitter o sinal tem e onde o sinal está sendo capturado (Figura 1). Capturando o sinal perto do ponto de cruzamento pode fornecer uma TEB de 1 bit em 1000. Movendo o ponto de captura para perto do centro do olho reduz a TEB para 10-12, ou 1 bit em 1 milhão de milhões de bits.

Figura 2: A curva clássica da "banheira" relacionando
as margens de tempo de um receptor com a TEB,
baseado no jitter do sinal.
Se pudermos olhar para a TEB em vários pontos no olho, que é a forma que um testador de erro de bits (TTEB) poderia caracterizar o jitter, nós faríamos um gráfico como mostrado na Figura 2. O gráfico nos permite olhar para a TEB em relação a nossa posição em um intervalo unitário. Nós então chegamos à clássica "curva da banheira" que é frequentemente associada com as medições de jitter. A curva relaciona as margens de tempo do receptor com a TEB, baseado no jitter do sinal. Ela nos permite caracterizar a abertura do diagrada de "olho", que, em termos de um valor de TEB, será determinado por quantos bits você está observando.

O gráfico não nos permite dizer precisamente que o olho é X picossegundos de largura. Mas ele nos permite dizer que com uma taxa de TEB de, digamos, 10-3, o olho é X picossegundos largo. Assim, nós somos capazes de medir a duração da abertura do olho ao medirmos a TEB em um dado nível em qualquer lado do olho.

O inverso do conceito de "abertura de olho @ TEB" discutido acima é o de "total de jitter (Tj) @ TEB". A noção de quanto jitter existe fechando o olho é análogo ao jitter pico a pico, mas com certa significância estatística. Se formos olhar para 1000 bits, qual é o valor de pico a pico de jitter que esperaríamos ver? Se formos olhar para 1 milhão de bits, nós esperaríamos ver 10-9 ou 10-12. Então, estatisticamente falando, nós temos uma ideia do valor de pico a pico do jitter mas com um fator de confiança.

Figura 3: O modelo Dual-Dirac de jitter permite o cálculo
do Tj @ TEB em qualquer valor de TEB arbitrário
O que os parágrafos anteriores nos dizem é que é mais difícil medir os valores de TEB em posições específicas diferentes no intervalo unitário. Pode ser feito, mas demanda tempo. Então se não podemos medi-lo, há alguma forma de usar dados estatísticos para modelar o que irá acontecer em qualquer TEB arbitrário de nossa escolha?

Se nós reunirmos o histograma de pontos nas bordas que se cruzam, poderemos extrapolar aquele histograma para algo que nos mostre o total de jitter que teríamos em um dado TEB? Ao que parece, sim, podemos, ao enquadrarmos funções gaussianas nas caudas da distribuição. Aparecem dois valores que precisamos enquadrar: um é o sigma das gaussianas, que corresponde à componente randômica do jitter, e o outro é a separação entre os valores gaussianos médios, que é a "visão" do modelo da componente determinística do jitter. As componentes determinísticas são o que definem a forma da distribuição entre as caudas.

O que estamos falando é conhecido por modelo Dual-Dirac, que se tornou proeminente em metodologias de canal de fibra para o jitter e qualidade de sinal, datando do final dos anos 90 (Figura 3). Se você puder pegar seus dados e enquadrar estas duas funções gaussianas nele, estes dois valores (o sigma gaussiano e a separação entre as médias gaussianas) podem ser usados na equação da Figura 3 para extrapolar o total de jitter esperado em qualquer valor de TEB. O modelo Dual-Dirac, pelo menos teoricamente, nos dá um meio confiável e que pode ser repetido de quantificar jitter através de modelamento estatístico.

Mas, tendo dito isto, o enquadramento das caudas é um problema difícil. De fato, o mesmo documento que é a fonte da Figura 3 (Fibre Channel MJS, 1998) inclui uma nota de rodapé dizendo que "a técnica mais comum para determinar o melhor enquadramento envolve o olho humano". O desenvolvimento de um algoritmo de enquadramento de caudas estava sendo conduzido mas o problema é que as caudas do histograma são, por definição, a área onde temos a menor quantidade de dados para trabalhar. Assim, é necessário uma enorme quantidade de dados para o resultado convergir.

Felizmente, mudanças viriam com o final dos anos 90 e com o início do novo milênio, que mudariam o cenário da medição de jitter consideravelmente. Nós continuaremos a história do jitter em um próximo post.


Artigo traduzido de http://blog.teledynelecroy.com/2015/04/the-history-of-jitter-part-iii.html

sexta-feira, 9 de outubro de 2015

História do jitter, parte 2: histogramas

Figura 1. Um exemplo de uso do histograma para plotar a
distribuição estatística de tempos de recebimento de bordas.
Continuando nossa revisão da história do jitter e da evolução da resposta a ele, nós chegamos ao final dos anos 90, quando análises mais sofisticadas foram necessárias para um melhor controle do jitter. Em particular, a análise estatística surge no cenário. A estatística é uma grande ferramenta para analisar fenômenos como o jitter, que mudam mais quando você os observa mais atentamente.
Uma simples mas instrutiva aplicação da análise estatística para a caracterização do jitter seria o uso de histogramas para compilar distribuição estatística de tempo de recebimento de bordas (Figura 1). Contudo, se formos olhar para quatro sinais diferentes, nós veríamos quatro distribuições diferentes. Mas aquelas distribuições todas possuem pelo menos uma coisa em comum. Se você observar as bordas exteriores de cada um dos histogramas, perceberá que todos exibem uma forma similar. Há uma forma "decrescente" naquelas bordas que é meio gaussiana, ou randômica, em caráter.
Figura 2. O jitter possui duas componentes principais: randômica (branco
em todas as distribuições) e determinística (em salmão).
Considere o histograma no canto superior esquerdo da figura 2 (ou qualquer um deles, aliás). O que ele revela é que o jitter tem duas componentes gerais. Tenha em mente o que é um histograma: ele nos mostra a forma de uma distribuição estatística de valores de parâmetro. Então, quando olhamos para a imagem superior esquerda, o que nós vemos é que o jitter tem duas partes. Aquelas caudas gaussianas "decrescentes" em ambas pontas da distribuição, mostradas de branco, representam a componente randômica do jitter. Esta componente do jitter é ilimitada. Assim, estatisticamente falando, quanto mais você mede, maior ela fica, porque teoricamente, uma borda pode ser recebida em qualquer lugar e a qualquer hora.
A outra componente, visto na cor salmão, é a componente determinística do jitter. Esta componente determina a forma da distribuição entre as duas caudas. O jitter determinístico é limitado, então assumindo um tamanho de amostra suficiente, aquela parte da distribuição não vai crescer à medida que você mede mais e mais.
Figura 3. Medição de valores pico a pico do jitter
 é uma proposição infrutífera.
Uma questão que frequentemente é levantada com respeito à medição do jitter é, "porque não medir apenas a tensão pico a pico do jitter?". Lembre-se que a componente randômica do jitter é ilimitada. Medições de pico a pico para qualquer coisa ilimitada não é uma estatística bem definida. Assim, o valor pico a pico esperado crescerá com o aumento da população (Figura 3). Sempre haverá valores "extremos" sem representatividade na distribuição que posteriormente distorcerá os resultados ao se medir o jitter pico a pico.
Bem, então por que não medir o desvio padrão do jitter? Não, esta também não é uma boa ideia. O desvio padrão da distribuição não será muito significativo se a distribuição não for gaussiana. Você pode ver distribuições com diferentes formas que possuem o mesmo desvio padrão. Assim, como uma única figura de mérito, o desvio padrão não te dirá muita coisa.
Assim no fim do dia, voltamos para os erros de bit e a propensão de nosso sistema de gerá-los. Se observarmos bits suficientes, nós estamos estatisticamente garantidos de que veremos um erro de bit. No final dos anos noventa, o que importava era quantos erros de bit nós esperávamos ver em um dado número de bits - a taxa de erro de bits (bit error ratio, BER). Se conseguimos um bit de erro em um Mbit de dados, temos um BER de 10-6. O nível típico de confiança requerido por muitos padrões de transmissão serial é um BER de 10-12. The typical confidence level required by many serial-data standards is a BER of 10-12. Isto é um erro de bi em 1000 Gbits de dados, e este é um número que você ouve muito em ligação a testes de compatibilidade.
O fim dos anos 90 viu uma mudança na ênfase do BER como função do jitter. Voltaremos nossa atenção para este assunto em nosso próximo capítulo deste exame da história do jitter.

Artigo traduzido de: http://blog.teledynelecroy.com/2015/03/the-history-of-jitter-part-ii.html

domingo, 30 de agosto de 2015

História do jitter, parte 1: os primeiros anos

O texto a seguir faz parte de uma série sobre a história do jitter. Como é algo muito interessante para todos, eu traduzi e estou postando aqui. Espero em breve traduzir os próximos.


Jitter é um gremlin da integridade de sinal que está conosco por um longo tempo. De fato, está conosco desde antes que alguém realmente se preocupasse com ele. Mas com o passar do tempo, nossa percepção sobre o jitter certamente mudou, e com isto nossas abordagens ao diagnosticá-lo, medi-lo e finalmente, eliminá-lo. Aqui, vamos dar início a uma caminhada  pela "história do jitter", avaliando onde nós estivemos e para onde nós poderemos ir em nossas iterações com o fenômeno.
Não há um percurso simples e direto pela história do jitter. Pelo contrário, é uma história de vários instrumentos, inventores e reviravoltas. Nós sabemos, contudo, que se estende da ascensão das taxas de dados seriais de 45-baud de um receptor telegráfico até as veneráveis portas seriais de 9 pinos de fibras óticas, transmitindo sinais de 160Gbaud ou mais (ver Figura 1). Pelo caminho, nós vemos osciloscópios de tempo real, osciloscópios de amostragem, analisadores de intervalo de tempo, analisadores de ruído de fase, e testadores de taxa de erro de bit (bit-error-rate, BER) serem lançados sobre o problema em nossos esforços de entendê-lo e domá-lo.

Figura 1: A história do jitter se estende dos 45 bauds de telégrafos até os 160 Gbauds de fibra óticas.

Dando um passo atrás por um instante, por que nós nos importamos com o jitter? A versão mais curta: ele causa erros em bits. Basicamente, jitter é um fenômeno horizontal (ou baseado em tempo) onde as bordas das transições em uma forma de onda chegam antes ou depois em relação ao clock que está chaveando o sinal. Se, por exemplo, a borda de um dado chega depois de seu respectivo clock, então um bit que deveria ser chaveado como alto será chaveado como baixo. Tempo de borda errado gera chaveamento incorreto que gera bits errados.
Figura 2: O jitter acontece quando as bordas de dados e de seu respectivo clock não estão marchando em sincronia

Nos antigos dias da lógica digital — nos anos 60 — a preocupação envolvendo medições de tempo e chaveamento apropriado estava nos tempos de setup e hold. Investigação da performance do setup e hold era relativamente simples, mesmo com os osciloscópios analógicos daquela época. A pessoa ligaria o trigger no clock e mediria o tempo de uma borda para a próxima usando cursores. Em outras palavras, você duplicava os diagramas de tempo do datasheet para ver se você cairia dentro das margens de tempo requeridas.

Figura 3: Lembra-se dos despreocupados anos 70 e 80, onde ninguém se importava muito com o jitter?

O fato é que naqueles primeiros dias da eletrônica digital, o jitter não era lá um grande problema. Mesmo entrando nos anos 70 e 80, com barramentos paralelos, taxas de transmissão na ordem de dezenas de megabits/s, e tempos de subida de nanossegundos, o jitter ainda não disparava muitos alarmes. Se um intervalo unitário era tão longo, com respectivos tempos de setup e hold também longos, então a relação entre a espessura da borda e os parâmetros gerais fazia que a probabilidade de incerteza de temporização causando um erro de bit fosse bem baixo (Figura 3).
Mas no final dos anos 90, o cenário era bem diferente com relação ao jitter. A transição de barramentos paralelos para seriais estava bem avançada. Taxas de transmissão subiram para a faixa dos gigabits enquanto os tempos de subida caíram para as centenas de picossegundos. Como consequência, uma pequena variação em uma borda de subida ou descida se tornou muito mais significativo em relação ao intervalo inteiro.
Assim, no fim dos anos 90, a questão se tornou "Como eu caracterizo tempos de setup e hold com um nível real de certeza?". Em outras palavras, quanto jitter existe? Ah, AGORA ele é importante! Um método simplista que ganhou proeminência foi medir o jitter pico a pico em oito bordas de clock. Obviamente, este não é um método particularmente preciso, já que haverá uma boa quantidade de variação em quaisquer oito bordas de uma saída de clock. Uma coisa ficou clara: Jitter afeta margens de setup e hold. Quanto mais tempo nós medirmos, mais curtos ficarão os tempos de setup e hold, e mais justas ficarão as margens.
Por volta desta época alguns avanços na tecnologia de medição foram desenvolvidos e permitiram que os tempos de bordas fossem analisados com um pouco mais de detalhes. Acompanhem mais para os próximos posts que continuarão a história do jitter.

Artigo traduzido de blog.teledynelecroy.com/2015/03/the-history-of-jitter.html

terça-feira, 9 de outubro de 2012

50 anos iluminando cada vez mais nosso futuro!

Eles estão em todos os lugares. Não estão apenas naquele brinquedo ou talvez no seu controle remoto... Ele está na própria tela da televisão, nas luminárias, nas câmeras de vigilância... Nem Nick Holonyak Jr., seu inventor, faria ideia do quanto sua invenção seria empregada... Falamos nada mais, nada menos, do que os LEDs (Light Emitting Diode), ou em português, diodo emissor de luz.
Isto teria acontecido em 1962, nos laboratórios da General Electric de Syracuse, Nova Iorque. Holonyak, que nasceu em 3 de novembro de 1928, desenvolvia uma pesquisa neste laboratório sobre como empregar semicondutores para produzir luz. Foi assim que ele criou os primeiros LEDs, que emitiam luz vermelha1.
O princípio de funcionamento do LED é desenvolvido a partir do próprio diodo semicondutor. Neste diodo, a junção de um cristal semicondutor tipo P (que possui mais lacunas do que elétrons livres) com um cristal tipo N (que possui mais elétrons livros que lacunas) forma uma pequena barreira de potencial. Para os elétrons atravessarem esta barreira de potencial, é necessário que a junção seja polarizada diretamente com uma tensão suficientemente grande (que em semicondutores de silício costumam ser de 0,7V). Ao atravessar esta barreira de potencial, os elétrons no diodo liberam energia em forma de calor. No LED, no entanto, esta energia é liberada em forma de luz, cuja cor depende do material usado para a dopagem do semicondutor... E assim, temos uma variedade enorme de LEDs no mercado...
Hoje em dia, não temos só mudanças de coloração na luz emitida pelo LED. Temos ainda LEDs laser, temos LEDs infravermelhos, LEDs de potência... O LED, por possuir uma alta eficiência, tem sido empregado em vários lugares com sucesso...
Hoje, 50 anos depois de sua invenção, certamente a imagem criada pela GE para comemorar este dia diz tudo...


Notas

1. Informação obtida do texto Nick Holonyak: He Saw The Lights, acessado em http://www.businessweek.com/stories/2005-05-22/nick-holonyak-he-saw-the-lights

sábado, 23 de junho de 2012

Centenário de Alan Turing

Se você nunca ouviu falar de Alan Turing, isto se deve às injustiças que a história reserva às vezes. No entanto, graças a ele, podemos falar um pouco hoje... sobre ele! Afinal de contas, este matemático britânico nascido em 23 de junho de 1912 fez uma contribuição enorme para a computação, sendo considerado o pai da ciência da computação e da inteligência artificial.
Ao que parece, desde cedo ele se interessou por matemática. Osvaldo Antonio Pozza e Sérgio Penedo, em um artigo1, falam que seu passatempo favorito na infância, logo que aprendeu a ler, era fatorar números de hinos religiosos e desenhar bicicletas anfíbias.
Qual teria sido a contribuição de Turing para a computação? Para explicarmos isto, temos que primeiro definir o que é um sistema formal. O sistema formal é um sistema que manipula símbolos de acordo com regras rígidas. Um ótimo exemplo é o jogo de xadrez: você manipula as peças de certa forma. Havia grande esforço na época de se transformar a aritmética em um sistema formal, reduzindo-a a fundamentos lógicos seguros... Assim, com um de regras estabelecidas em uma máquina, ela poderia fazer vários tipos de cálculos conhecidos. Turing inclusive propôs que a grande maioria dos problemas inteligíveis poderia ser convertido para a forma "encontre um número n tal que...". Foi assim que Alan Turing demonstrou que uma máquina capaz de realizar várias operações matemáticas era possível.
A máquina de Turing, batizada em sua homenagem, é uma máquina que lê uma fita. A fita, por exemplo, possui dois tipos de símbolos: 1 para escrito, 0 para apagado. A máquina é capaz de executar 4 operações diferentes:
  • Substituir 1 por 0
  • Substituir 0 por 1
  • Mover a fita para a direita
  • Mover a fita para a esquerda
A máquina possui uma lista de regras (programa), que ela segue, baseando-se nos símbolos da fita (dados). Alan Turing demonstrou que para qualquer sistema formal há uma máquina de Turing. Sua teoria foi publicada em um paper intitulado On Computable Numbers, with an application on the Entscheidungsproblem.




Durante a segunda guerra, Alan Turing trabalhou com o exército britânico na área de criptografia. Ele foi o responsável pela quebra de códigos alemães, gerados pelo aparelho nazista chamado de Enigma, que trocava os códigos constantemente. Turing e seus colegas desenvolveram um sistema chamado de Colossus, um verdadeiro emaranhado de servo-motores e metal.
Durante a guerra, Turing foi aos Estados Unidos para fornecer códigos seguros de comunicação transatlânticas. Supõe-se que foi em Princeton que ele tenha conhecido John von Neumann, e daí tenha participado do projeto do ENIAC.
Com o fim da guerra, muito de seu trabalho junto ao exército se tornou secreto, não podendo ser assim reconhecido pelo que fez pelo seu país. Para agravar a situação, Turing era homossexual, comportamento tolerado na universidade, mas não na sociedade britânica do início do século XX. Em 1952, ele deu queixa de um furto cometido por um homem que ele teria confessado ser seu amante. Por isto ele foi julgado e condenado à castração química por estrogênio, o que o deixou obeso e impotente. Juntando-se a isto toda a humilhação passada pelo incidente e o esquecimento que o país que ajudara salvar lhe reservou, a depressão lhe foi inevitável.
Em 1938 ele assistira o desenho "Branca de Neve e os sete anões", onde a bruxa mergulhava uma maçã em veneno. Ele teria gostado tanto do desenho, que seus colegas informaram que estava sempre cantarolando a música tema do desenho: "Mergulhe a maçã no caldo, e deixe a morte sonolenta penetrar". Não teria sido coincidência então, quando em 7 de junho de 1954, ele se recolhe ao seu quarto para dar uma última mordida naquela maçã, e deixando a morte sonolenta penetrar...

Referências

1. A MÁQUINA DE TURING, Osvaldo Antonio Pozza, Sérgio Penedo, acessado em http://www.inf.ufsc.br/~barreto/trabaluno/MaqT01.pdf

quinta-feira, 8 de março de 2012

O Pai dos Videogames faz 90 anos hoje!!

Quem já ouviu falar de Ralph Baer? Quem hoje passa horas diante da televisão, jogando seu XBox ou seu Playstation 3 talvez não saiba, mas houve uma época que ninguém imaginaria passar tempo com jogos eletrônicos. Foi então que Ralph Baer mudou o mundo da diversão com seu aparelho.
Ralph Baer era um imigrante alemão, que veio para os Estados Unidos em 1938, aos 16 anos. Sem saber qual carreira seguir, ele se inscreveu em um curso por correspondência de manutenção rádio e televisão enquanto trabalhava de dia em uma fábrica. Depois de concluir o curso, ele passou três anos trocando transistores até que foi puxado para o exército.
Ele então serviu a Inteligência Militar estacionada na França e ganhou uma medalha por isto. Quando ele voltou para os Estados Unidos ele aproveitou para se graduar em Engenharia de Televisores no American Television Institute of Technology. Casou-se dois anos depois, em 1952, mas ainda levaria 10 anos para que ele desse início à sua relação com os jogos eletrônicos.
Ganhou então um emprego como gerente do departamento de design eletrônico na Sanders Associates, uma companhia de tecnologia que fazia componentes usados pelos militares.
Baer então começou a pensar sobre uma forma de desenvolver tecnologia que poderia ser vendida para consumidores comuns e logo ele pensou nos televisores, que estavam vendendo 40 milhões de unidades nos Estados Unidos naquela época. Em uma entrevista em 2007 para o site de games Gamasutra, ele diria:
"Você sabe, eu olhei para o aparelho e disse para mim mesmo, 'O que eu posso fazer com isto?'... Então eu pensei sobre isto e disse, 'Talvez nós pudéssemos jogar'. Bingo. E no outro dia, pela manhã, eu me sentei em meu escritório e escrevi aquele artigo de quatro páginas".
O artigo de quatro páginas era o fundamento para o que seria depois a "caixa marrom" de Baer, um aparelho anexado à televisão que ele construiu com o especialista em eletrônica do local, Bill Harrisson, que dava às pessoas controle sobre pontos brancos que se moviam pela tela, controlado por joysticks modelados segundo os joysticks usados por pilotos de aviões da época.
Esta ideia teria sido baseada em um dos dispositivos da Sanders que mostrava um ponto que se movia pela tela de radar para representar o movimento do avião. Baer tomou isto e o transformou na maior gama de jogos possíveis, onde basicamente se tinha um ponto de um jogador perseguindo o ponto de outro. A versão mais popular era uma versão de ping pong que os jogadores moviam um traço vertical e rebatiam o ponto para o campo do adversário.
Quando Baer apresentou o invento ao pessoal da Sanders e as reações foram as mais variadas. Mas ele sabia que tinha algo muito especial em mãos e então levou o invento para o escritório de patentes, onde os inspetores, conhecidos por serem difíceis de se impressionar, sofreram de uma literal paixão à primeira vista. "Dentro de uma hora, [o inspetor] estava jogando", Baer se lembra.
Em 1971 então a caixa marrom de Baer foi licenciada para a Magnavox, que a transformou no Odyssey, o primeiro console doméstico. O aparelho usava os pontos controláveis de Baer juntamente com membranas para serem colocadas diante da tela da televisão, para dar aparência de novos cenários e jogos. Assim o Odyssey vendeu suas 325000 unidades, introduzindo uma nova forma de famílias jogarem unidas. E foi este sistema que chamou a atenção de Nolan Bushnell, criador da Atari, que havia desenvolvido o Pong, uma versão muito idêntica daquele jogo desenvolvido por Baer.


Assim, Bushnell acabou dando um passo a mais na história dos games, enquanto Ralph Baer se contentava em trabalhar em seu laboratório com suas experiências. Em uma entrevista em 2009 com Diehard Gamefan, ele diria:
Para mim, inventar video games foi apenas uma coisa bem sucedida que eu fiz entre muitas outras. [...] Eu considero a mim mesmo um engenheiro e inventor que fez seu trabalho.
Baer continuou trabalhando para a Sanders em tecnologias não relacionada a jogos, incluindo tecnologias de laser de alta potência e treinamento e simulação interativo baseado em vídeo. No entanto ele nunca deixou seu lado de jogador, inventando em 1978 juntamente com Howard J. Morrison o aparelho conhecido como Simon, um popular jogo de memória que fazia os jogadores memorizarem cada vez mais complicados padrões baseados em quatro botões coloridos, cada um produzindo um tom musical.
É interessante como Baer se tornou crítico de como os jogos se tornaram violentos nos nossos dias. "Eu acho que é uma desgraça", disse ele à Salt Lake Tribune no último ano. "O que eu criei se tornou abominável. Você pode ver a mesma coisa na música, literatura, arte - qualquer forma de arte". Ele também critica bastante a política de empresas estadunidenses que, no início de 1950, focaram mais em aquisições e exploração de mão de obra barata em outros países do que investir no crescimento interno. Em 2006, as conquistas de Baer na área de games e tecnologia foram reconhecidas quando George W. Bush o recompensou com a Medalha Nacional de Tecnologia.


Aos 90, Baer passa maior parte de seu tempo em sua casa em Manchester, New Hampshire. Ele ainda mantém um laboratório em sua casa, cheio de velhas e novas invenções. Agora suas invenções são para ele mesmo. Muito do que foi dito aqui pode ser visto em seu website também. Mais do que os games que gostamos, talvez este senhor de 90 anos seja também um exemplo de profissional que ama aquilo que faz e faz tudo da melhor forma possível, por que ama aquilo.

Fonte: http://games.ign.com/articles/122/1220015p1.html

Você também poderá gostar de