|
Também causa algumas dúvidas o facto de no fim do estudo aparecer a seguinte frase: "Mindcraft, Inc. conducted the performance tests described in this report between March 10 and March 13, 1999. Microsoft Corporation sponsored the testing reported herein. " Na discussão no slashdot apareceram algumas contrbuições importantes: Em primeiro lugar um AC encontrou uma pergunta feita sob nome falso, pelos fulanos que fizeram o teste, no newsgroup comp.infosystems.servers.unix. Nessa pergunta eles mostravam-se surpreendidos com o colapso de performance do Apache quando a carga excedia um certo patamar. Ninguém lhes deu uma resposta na altura e pelos vistos eles nunca chegaram a descobrir. O estudo final refere esse colapso como uma característica normal do apache. Agora que os hackers começaram a preocupar-se com o assunto, as respostas começam a surgir: Eric Green demonstrou que o problema são os "file handles". Nas condições descritas o apache gastaria os 1024 que existem por omissão num sistema Linux, e ficaria em "starvation" de "handles". No pedido de ajuda a empresa de testes indicava claramente que estavam a usar 1024 handles. Bastava fazer "echo 4096 > /proc/sys/kernel/file_max" para resolver o problema. Um dos autores do samba, Andrew Trigell, descobriu algo de estranho na configuração usada, "widelinks = no". Segundo o autor, isso provoca mais 3 chamadas "chdir" e "getwd" por cada ficheiro acedido, o que é especialmente grave num sistema SMP. Não há justificação aparente para eles terem feito esta configuração. Muito importante foi um "post" do Matt Welsh, autor do livro "Running Linux", que admite que ainda não se investiu tempo suficiente em garantir e demonstrar a performance de sistemas Linux em grandes servidores. Espera-se uma resposta mais formal da comunidade Linux em relação a este estudo. < Novos Gnome 1.0 rpms para rh5.2 | Sugestão de artigo >
|
| ||||||||||||||||||||||||||||||||
|
|
||