Esta discussão foi arquivada. Não se pode acrescentar nenhum comentário. |
| | Se fosse a ti começava com o Advanced Routing HOWTO. Pessoalmente nunca fiz mais que umas brincadeiras, mas pode ser que já esteja mais estável. |
| |
|
| | Este url tem a versão mais recente. O que procuras está na secção 9.5. |
| |
| | O que queres é ao nível de switching. Porque queres meter um Linux ao barulho ? |
| |
| | O Iscte usa um sistema de clustering beowulf, a que da' o nome de Projecto Vitara, onde processam a informacao dos sistemas de eleicoes via internet ( ou usavam.. ) Paulo Trezentos, nao podes falar um pouco da experiencia do projecto? Cumps, Vitor Domingos Cumprimentos, vd |
| |
| | E se nao estou em erro a IBM ja conseguiu o supercomputador com 250 processadores em Linux usando o mesmo sistema de clustering em Beowulf. Cumprimentos, vd |
| |
| | Bom. Parece-me a mim que andam aqui a meter os clusters ao barulho quando o assunto pode (ou não) estar directamente relacionado. A minha experiência, limita-se ao channel bonding. Um servidor (apache+php) com 3 eth's, das quais 2 eram usadas (bonding) para ligar a outra máquina (com 3 eth's tb e a correr o pgsql). Ambas as máquinas mantinham um dos interfaces com um IP válido, mas todos os acessos à BD eram feitos pelo "canal" interno. Na altura não encontrei problemas de maior, tanto na configuração, como de fiabilidade. |
| |
| | A questão do bonding é relativamente simples, nao te esqueças que precisas de switches que permitam o ip bonding, pessoalmente aconselho BayStack's da Nortell. A kernel de Linux precisa de um patch feito por um francês qualquer para por o bonding a funcionar correctamente, embora a kernel e o modulo de bonding não deem problemas, uma mini-appzita que é utilizada para os canais master e slave que tem que ser compilada pós kernel sempre que actualizares o kernel ás vezes dá problemas, já nao estou bem certo do nome da coisa, se nao me falha a memória penso que é ifenslave... mas lembro-me que dava bronca... Se queres por Catalyst's pelo meio, é melhor esqueceres o bonding... :) Se projectares o sistema todo com Baystack's em cascade e a usares ipbonding, será um boa opçao em relaçao ao multi-trunking!... Esta é a minha humilde opinião!
-------------------------------------------- If there is such a thing as too much power... I've not discovered it... |
| |
|
| por Anonimo Cobarde em 01-09-01 19:55 GMT (#11) |
| Mike, Um trunk e um etherchannel NAO sao a mesma coisa. Qual e' a diferenca? bem ha umas quantas mas vou-te dar uma que so por si faz com que funcione uma e nao outra. O trunking tem a ver com vlan's e com o facto de num trunk poderes criar uma especie de um tubo por onde se pode transportar trafego de N vlan's de um switch para outro. Ja o etherchannel trata-se apenas de uma configuracao que te deixa agrupar N portas de um switch/host pertencentes todas elas `a mesma vlan. Quase que se poderia dizer que usas um etherchannel quando queres disponibilizar mais bandwidth do que es capaz de obter com uma unica porta fisica, quer de um switch, quer de um host. Embora nao tenha passado os olhos pelo ipbonding do linux parece-me assim por alto que e' outro conceito completamente diferente. Parece-me estar intimamente ligado com o IP do host ao contrario do que se passa com qualquer um dos outros casos acima indicados. Corrijam-me se eu tiver enganado. |
| |