Zé (usuário não registrado) em 5/10/2010 às 1:59 pm

É surpreendente o poder do Linux, funciona desde dispositivos com pouquíssimos recursos até supercomputadores.

Renato Elias (usuário não registrado) em 5/10/2010 às 2:06 pm

Interessante, este não seria um gargalo também para multiprocessadores, em mainframes isto deve se mostrar

multiprocessadores != multicore

Igor Cavalcanet (usuário não registrado) em 5/10/2010 às 2:20 pm

Hmmm agora posso comprar meu novo notebook sem medo

Alexandre Bars (usuário não registrado) em 5/10/2010 às 2:21 pm

kkk,brincadeira não é, não tem suporte nem para os ultimos de junho da Ati, Intel imagine isso!!

O kernel tem ser atualizados com mais frenquencia o Linux hoje, ou melhor, INFELIZmente se comportar melhor em computador velho de 1 ano!! kkk

http://www.h-online.com/open/features/What-s-new-in-Linux-2-6-35-1047707.html

OpenSUSE KDE4.5 – Brasilia!!

tenchi em 5/10/2010 às 2:26 pm

hauahau, legal. Mas me lembrei esta tirinha;
http://xkcd.com/619/

Sorte que hoje não tenho e nem preciso de Flash :-)

Rael Gugelmin Cunha (usuário não registrado) em 5/10/2010 às 2:57 pm

Apenas o contador dizendo que dá pra apagar os dados não é suficiente.

Chega uma hora que o overhead de ficar gerenciando vários núcleos/processadores não compensa mesmo. É um dos princípios básicos da computação distribuída.

Fellype (usuário não registrado) em 5/10/2010 às 3:09 pm

A notícia é interessante e reflete o fato de o Linux ser um SO de alta qualidade e versatilidade. Além disso, vale ressaltar que esta descoberta feita pelo MIT só foi possível porque o Linux é um software livre.

Mudando o enfoque, eu costumo ver as coisas sempre pelo lado bom, mas vou abrir uma exceção agora: o fato de não ser necessária uma revolução na área de softwares, pelo menos a curto/médio prazo, pode gerar um certo comodismo, fazendo com que as coisas demorem um pouco para engrenar quando for necessário revolucionar.

Illidan (usuário não registrado) em 5/10/2010 às 3:20 pm

Tem hora que me pergunto isso realmente é necessario?
Ao ver pelo amigaOS que tem um desempenho excelente em Amiga/ppc, da pra fazer mais que o basico nele; tá bom nao é opensouce e blablabla, ai tem o AROS indo para o mesmo caminho e open.

magic (usuário não registrado) em 5/10/2010 às 4:01 pm

Ta bom, a maioria comenta sem ter algo a dizer, mas linux domina no top 500 dos maiores supercomputadores(procurem, não postarei o link).
Pelos coments da para ver que o linux esta popular, flw nobzada.

self_liar (usuário não registrado) em 5/10/2010 às 6:57 pm

Legal como censuraram o meu comentário. Só acho chato estas inovações constantes desnecessárias e que não pensam em nada no aspecto global,mas sim somente no retorno que pode trazer.

E como consequencia toda inovação produz efeitos .Agora temos que descartar as linguagens de programação e escrever tudo de novo.

Acho que uma sociedade decente aproveita ao máximo as tecnologias antes de ficar inovando toda hora.

Reikainosuke Nekomata (usuário não registrado) em 5/10/2010 às 7:01 pm

@Illidan:
Eu não penso que irei usar 48 núcleos no meu desktop tão cedo (ou talvez nunca use), mas certamente deve existir demandas em aplicações científicas ou comerciais que poderiam se beneficiar com isso.

O importante desta notícia é que o Linux permite tal escalabilidade e até mais, pelo que entendi. Será que há outros SO que conseguem o mesmo, ou até melhor? Esta é uma pergunta de leigo.

PS: sou muito fã do Amiga OS mas, como um SO mainstream, creio que ele infelizmente naufragou junto com a Commodore.

Anderson Freitas (usuário não registrado) em 5/10/2010 às 7:48 pm

Oxi!! e eu ainda estou na epoca do processador uni-core!!

pimentel (usuário não registrado) em 5/10/2010 às 9:27 pm

Vamos supor que daqui a 20 anos os computadores pessoais já estejam usando 48 núcleos,isso quer dizer que seria necessário criar outro sistema do zero e já preparado para mais de 48 núcleos ou o linux seria facilmente adaptado para mais de 48 núcleos???

André Luiz (usuário não registrado) em 5/10/2010 às 11:54 pm

@Fellype, o problema é que a indústria é um pouco “desconfiada” e “conservadora” quando o assunto é inovação. Nem sempre o custo do desenvolvimento garante o retorno financeiro. A adoção de uma tecnologia depende muito do mercado, mesmo em nichos(como aplicações críticas). O caso que retrata isto muito bem é o da Intel: lançou o uP Itanium(acho que 2001/2002) com uma proposta inovadora(incompatível com a família i386) mas que, para ser aproveitada, necessitava de novos SO’s com novos programas. A adesão do mercado foi baixa(ninguém quiz assumuir o custo de “reescrever” as rodas), o custo do uP ficou alto e, com os programas “convencionais” o desempenho era inferior a um uP da AMD menos inovador e mais barato. Não sei nem se esta plataforma evoluiu e se ainda é comercializada… deve ter sido substituida pelas evoluções do Xeon…

psantos (usuário não registrado) em 6/10/2010 às 10:36 pm

André
Até onde eu saiba a plataforma Itanium agoniza em seus respiros finais na UTI. E a não ser que algo radical aconteça muito em breve seu fim é certo.
Tanto a Microsoft tanto a Red Hat anunciaram o fim do suporte e esta plataforma. Windows 2008 Server e Red Hat 6 estão fora, respectivamente.
Só resta agora a HP, principal interessada na tecnologia sentar no meio-fio e chorar, já que sua linha “PA-RISC” foi substituída pelo Itanium. Rumos incertos para o bom e velho HP-UX.

foobob (usuário não registrado) em 7/10/2010 às 9:22 am

Linux faz tempo roda em até 2048 processadores. A diferença aqui é que identificaram alguns bottlenecks e otimizaram especificamente para uma máquina multicore.

Uma aplicação fantástica para processamento paralelo é renderização gráfica 3D com técnicas de raytracing. Mas como a realidade multicore vem lentamente, muitos tem preferido tomar a rota GPGPU, já que em GPUs multiprocessamento na casa das centenas já é uma realidade…