You are not logged in.
lupanama wrote:
gan........ maaf ganggu bang
saya sudah menerapkan cara loadbalancinya mas REZA, saya pasang 2 Speedy
tapi kok ketika saya mendownload dari INDOWEBSTER saya cuma dapet 100Kbps, padahal kalo model penggabungan dengan MIKROTIK, saya bisa dapet 200Kbps
mohon pencerahanya
terima kasih
loadbalance dengan bonding beda, klo loadbalance itu menyeimbangkan beban ke 2 ato lebih jalur ISP sesuai perbandingan yg kita berika sedangkan yg bisa menggabungkan b/w itu bukan loadbalance tetapi bisa dengan bonding...

Offline
maaf berarti klo bonding apa bisa mengatasi masalah putus2 ym poker dan game online misal PB ?
opikdesign wrote:
gimana gak putus2 PB ama YM-nya.... load balance....
koneksi putus2 krn perpindahaan jalur dari speedy 1 ke speedy 2 ato sebaliknya agar meraih keseimbangan di tiap jalur, itu disebut loadbalance.... load => penggunaan jalur, balance => seimbang/sama rata.... seimbang sesuai bilangan weight di setiap dev
Offline
ozi wrote:
maaf berarti klo bonding apa bisa mengatasi masalah putus2 ym poker dan game online misal PB ?
belum mencoba apakah bonding ini terputus2 tidak seperti loadbalance tetapi menurut logika saya sih seharus tidak terputus-putus....
klo lebih dari satu line bisa diakali per gateway seperti contoh http://opensource.telkomspeedy.com/foru … 390#p95390

Offline
@ opik ![]()
loadbalance dengan bonding beda
maaf nih, sepertinya bagian ini sudah pernah dibahas beberapa waktu lalu - tapi lupa di-thread mana
mungkin bisa di-search dulu ttg "bonding"
intinya sebenarnya *sama* - cuma dengan implementasi berbeda ![]()
umumnya kalo kita bilang loadbalance -> lebih mengacu kepada load balancing pada gateway/L3 , tapi kalo kita bilang bonding -> lebih mengacu pada L2 - tapi intinya/prinsip kerjanya hampir sama (karena pada L2-bonding pun ada mekanisme mode bonding yg mengatur apakah loadbalance/failover dsb) ![]()
HTH.
Offline
@abdi_wae...
hasilnya sepertinya beda, bonding dia gak pernah berpindah2 lebih stabil kecuali melakukan koneksi yang baru.... ayo kita test-drive di lab kecil milik kang abdi_wae... ![]()

Offline
ikut menyimak dulu yah newbie ![]()
Offline
@ opik ![]()
hasilnya sepertinya beda, bonding dia gak pernah berpindah2 lebih stabil kecuali melakukan koneksi yang baru....
hmm, maaf - abdi agak kurang paham nih maksudnya opik? ini untuk implementasi bonding pada layer 2 atau gateway "loadbalancing" pada layer 3?
ayo kita test-drive di lab kecil milik kang abdi_wae...
kalo untuk mencoba argumen abdi pada bagian ini :
intinya sebenarnya *sama* - cuma dengan implementasi berbeda
umumnya kalo kita bilang loadbalance -> lebih mengacu kepada load balancing pada gateway/L3 , tapi kalo kita bilang bonding -> lebih mengacu pada L2 - tapi intinya/prinsip kerjanya hampir sama (karena pada L2-bonding pun ada mekanisme mode bonding yg mengatur apakah loadbalance/failover dsb)
insyaAlloh sudah dicoba kok
mohon maaf sebelumnya, bukan bermaksud "show off" - hanya sedikit cerita saja untuk contoh pembelajaran/edukasi (berbagi) - khusus untuk bagian jaringan saja bukan untuk bagian aplikasi :
kemarin (sebelum pensiun) sempat bantu2 rekan untuk percobaan implementasi full network/data center redudancy dgn beberapa server (tipe A dgn sebuah NIC @4 port, tipe B sebuah NIC @2 port) - ubuntu 804 server LTS - ditambah 2 cisco catalyst 4900.
skenario "mungkin" cukup sederhana -> konsepnya adalah "what if" -> jadi harus mencoba untuk menerapkan NIC bonding untuk seluruh server tersebar ke 2 switch, dan berikut pada multilayer switching-nya harus gateway redundant (dalam arti punya 2 gateway atau lebih) yg mewakili setiap VLAN bagian dari server role :
server role A = vlan A, gwA1 AA, gwA2 AB
server role B = vlan B, gwB1 BA, gwB2 BB
dst.
setiap port pada NIC harus tersebar ke 2 switch -> sederhananya - bila switch A down, switch B harus take over switching/forwarding dan routing dst.
yg agak "sedikit" ruwet adalah masalah cabling - karena setiap server harus punya link ke 2 switch -> @ 2 kabel, jadi agak pusing kalo dikerjakan sendiri ![]()
untuk konfigurasi sisi ubuntu/servernya sendiri - insyaAlloh cukup mudah : ifenslave untuk bondingnya, pada /etc/network/interfaces - cukup ditambahkan interface bond0 dgn ip next hop equalize 2 gw setiap HSRP pada switch.
pada switch, buat VLAN berikut SVI untuk setiap VLAN, dan paling penting adalah HSRP (karena catalyst khusus yg sedang dicoba tersebut belum support VRRP) - yg berhubungan dengan virtual IP/VIP - virtual gateway, dan terutama membuat "LACP/PAGP" untuk kebutuhan NIC bondingnya.
dicoba - dgn beberapa metode :
- melepas kabel dari NIC, semua berjalan lancar
- me-shutdown sebuah gateway, semua berjalan lancar dsb
intinya : semua skema (network design)/kegiatan (technical procedure) diatas harus mendukung tujuan pokok yaitu failover redundancy (konsep "any method for a goal" atau kalo dibahasa pemrograman = OOP/"object oriented programming - bahasanya apa saja terserah yg penting aplikasinya bisa dibuat dan bisa jalan") untuk beberapa point :
- power failover
- server failover (virtual IP, real IP dsb)
- gateway failover (sda)
- application failover (sda)
- database failover (master/slave dsb)
- storage failover (sda)
- dst.
ceritanya demikian - namun, karena perhitungan biaya implementasi/maintenance dan beberapa pertimbangan lainnya - jadi, implementasi percobaan network/data center redundancy-nya dibatalkan ![]()
tapi tidak apa2, yg terpenting adalah pembuktian/implementasi sebuah konsep (POC) harus dijalankan dulu ![]()
[tambahan]
ada sebuah point menarik dari seorang rekan abdi sewaktu mengadakan POC diatas tentang network redundancy/failover - yg cukup lumayan untuk dipikirkan :
"dari setiap skema implementasi redundant network yg terbaik pun - pasti ada sebuah titik kegagalan/failure (single point of failure)"
-> merujuk bahwa hampir dapat dikatakan bahwa tidak ada desain yg sempurna dalam artian = ok, secara jaringan non-stop routing/NSR sdan switching udah bagus - tapi dari sisi aplikasi tidak bisa secara realtime take over dsb. dan memang, hal tersebut juga dialami pada saat uji coba application load balancing (layer 4 s/d 7). ada aplikasi/protokol yg support broadcast juga ada yg hanya support unicast dsb.
untuk detilnya - menjadi seorang konsultan teknis mewajibkan kita untuk menjaga kerahasiaan setiap klien ![]()
semoga sedikit contoh implementasi network redundancy dari abdi tadi - bisa menjadi bahan pemikiran/edukasi untuk rekan2 KIOSer bahwa sebagai seorang teknisi kita jangan terbiasa untuk terpatok kepada sebuah istilah -> biasakan untuk adaptasi secara logik - walaupun kadangkala pemahaman tentang sebuah istilah itu penting sebagai dasar2 mengerjakan sebuah tugas, dan jangan lupa membuat dokumentasi struktur jaringan ![]()
sekedar berbagi pengalaman, dan semoga bermanfaat, insyaAlloh ![]()
Offline
maksud opik, koneksi lebih stabil tidak putus-putus karena perpindahan gateway...
biasanya opik pakai bonding kayak gini di file interfaces, (dah lama gak dipakai lagi)
auto bond0 iface bond0 inet static address 192.168.1.4 gateway 192.168.1.1 network 192.168.1.0 broadcast 192.168.1.255 netmask 255.255.255.0 slaves eth0 eth1 eth2 pre-up modprobe bonding post-up ifenslave bond0 eth0 eth1 eth2
ini di level2 atau level3?!

Offline
@ opik ![]()
maksud opik, koneksi lebih stabil tidak putus-putus karena perpindahan gateway...
ok, kita bahas pelan2 ya ![]()
sederhananya : pemahaman teori dan praktek adalah 2 hal yang saling mendukung ![]()
pada sisi jaringan komputer -> nilai tambah bagi kita dalam mempelajari penjelasan OSI layer dan layer TCP/IP adalah kemudahan bagi kita untuk mendiagnosa sebuah problem dan dapat menyimpulkan cara pemecahannya ![]()
dari contoh opik diatas - kita harus bisa menjelaskan permasalahan ada di-layer mana = apa layer 2 atau layer 3?
auto bond0 iface bond0 inet static address 192.168.1.4 gateway 192.168.1.1 network 192.168.1.0 broadcast 192.168.1.255 netmask 255.255.255.0 slaves eth0 eth1 eth2 pre-up modprobe bonding post-up ifenslave bond0 eth0 eth1 eth2
secara teori dasar - setiap interface (baik bonding atau ethernet atau tap/tunnel ataupun interface lainnya) selalu berawal pada layer 2 secara fisik -> interface tersebut baru akan berubah tingkat pada layer 3/network layer setelah dia mengenal/menggunakan atribut IP pada dirinya.
bila kita berbicara khusus pada baris ini saja :
auto bond0 iface bond0 inet static
maka dapat dikatakan interface tersebut masih pada layer 2/data link - sebabnya? insyaAlloh sudah jelas - dia tidak punya IP.
tapi bila dilanjutkan kebaris berikutnya :
iface bond0 inet static address 192.168.1.4 gateway 192.168.1.1 network 192.168.1.0 broadcast 192.168.1.255 netmask 255.255.255.0
maka interface bond0 tersebut sudah merupakan interface L3.
sebelum bond0 mempunyai nilai gateway a.b.c.d - maka dapat dikatakan bond0 belum mampu melakukan routing - sbg contoh output berikut :
192.168.1.0/24 dev bond0 proto kernel scope link src 192.168.1.4
tidak ada nilai gateway bukan? berarti dia hanya mengenal jaringan subnetnya sendiri ![]()
--- lanjutnya ---
dgn nilai ini :
gateway 192.168.1.1
berarti bond0 mempunyai nilai gateway/router 192.168.1.1 - dan hanya 1 gateway.
kembali ke argumen opik ![]()
gateway 192.168.1.1 --- berbanding --- slaves eth0 eth1 eth2 post-up ifenslave bond0 eth0 eth1 eth2
interface bond0 milik opik diatas ada 3 interface eth0, 1 dan 2 - dan hanya punya 1 gateway 192.168.1.1 - berarti kesimpulannya loadbalance bond0 ada dimana? layer 2 atau layer 3?
sekedar untuk diskusi ![]()
Offline
abdi_wae wrote:
interface bond0 milik opik diatas ada 3 interface eth0, 1 dan 2 - dan hanya punya 1 gateway 192.168.1.1 - berarti kesimpulannya loadbalance bond0 ada dimana? layer 2 atau layer 3?
hiahahaha... dilempar pertanyaannya.... peace.... insya allah di layer 2...

Offline
@ opik ![]()
hiahahaha... dilempar pertanyaannya.... peace...., insya allah di layer2...
alhamdulillah, semoga kita dan rekan2 KIOSer bisa belajar bersama ttg teori lapisan OSI dan TCP/IP dan hubungannya dgn penerapannya secara praktek dgn baik ya ![]()
nggak kok, semua hal diatas hanya untuk bahan diskusi belajar bersama saja ya ![]()
nah, sekarang hubungannya diskusi ini dgn thread rekan KIOSer noboe yg punya beberapa sambungan DSL gimana?
ok, kita bahas pelan2 ya :
secara sederhana - mungkin skemanya - boleh tidak kalo digambar seperti ini?
DSL#1 ip 1.1/24 ----------+
|
DSL#2 ip 1.2/24 ----------+---[switch]----ip 1.254/24[ubuntu]ip 2.1/24----[switch]----ip 2.n/24[klien]
|
DSL#3 ip 1.3/24 dst ------+nah, hubungannya antara loadbalance dgn konfigurasi file /etc/network/interface - boleh tidak kalo abdi nulisnya seperti ini - pada ubuntu routernya :
iface eth0 inet static address 192.168.1.254 netmask 255.255.255.0 network 192.168.1.0 broadcast 192.168.1.255 gateway 192.168.1.1 gateway 192.168.1.2 gateway 192.168.1.3 gateway 192.168.1.n auto eth0
bagaimana? :
- hasil dari konfigurasi pada eth0 tsb terhadap routing/loadbalance?
- analisanya?
hanya untuk diskusi saja ya ![]()
Offline
pada teorinya, gateway banyak tentu bisa tinggal penentuan nilai metric...
tetapi hasil pada routing tidak tahu karena belum pernah mencoba...
menurut analisa saya (karena menurut logika, cmiiw) jika gagal di gateway pertama akan mencoba ke gateway selanjutnya...

Offline
@ opik ![]()
pada teorinya, gateway banyak tentu bisa tinggal penentuan nilai metric...
tetapi hasil pada routing tidak tahu karena belum pernah mencoba...
menurut analisa saya (karena menurut logika, cmiiw) jika gagal di gateway pertama akan mencoba ke gateway selanjutnya...
nah, ini menarik - apakah bisa dijabarkan lebih detil? kira2 bagaimana hubungan antara layer 2 dan 3? penentuan jalurnya -> apa mungkin dari sini bisa diambil analisa tentang apa itu load balancing dan failover?
Offline
diskusi yang sangat menarik antara mod abdi dan mod opik
saya cuma mau menambahkan, beberapa mode bonding yang dapat diaplikasikan pada interface
antara lain :
mode=0 (balance-rr) Round-robin policy: Transmit packets in sequential order from the first available slave through the last. This mode provides load balancing and fault tolerance.
mode=1 (active-backup) Active-backup policy: Only one slave in the bond is active. A different slave becomes active if, and only if, the active slave fails. The bond's MAC address is externally visible on only one port (network adapter) to avoid confusing the switch. This mode provides fault tolerance. The primary option affects the behavior of this mode.
mode=2 (balance-xor) XOR policy: Transmit based on [(source MAC address XOR'd with destination MAC address) modulo slave count]. This selects the same slave for each destination MAC address. This mode provides load balancing and fault tolerance.
mode=3 (broadcast) Broadcast policy: transmits everything on all slave interfaces. This mode provides fault tolerance.
mode=4 (802.3ad) IEEE 802.3ad Dynamic link aggregation. Creates aggregation groups that share the same speed and duplex settings. Utilizes all slaves in the active aggregator according to the 802.3ad specification.
Pre-requisites:
Ethtool support in the base drivers for retrieving the speed and duplex of each slave.
A switch that supports IEEE 802.3ad Dynamic link aggregation. Most switches will require some type of configuration to enable 802.3ad mode.
mode=5 (balance-tlb) Adaptive transmit load balancing: channel bonding that does not require any special switch support. The outgoing traffic is distributed according to the current load (computed relative to the speed) on each slave. Incoming traffic is received by the current slave. If the receiving slave fails, another slave takes over the MAC address of the failed receiving slave.
Prerequisite: Ethtool support in the base drivers for retrieving the speed of each slave.
mode=6 (balance-alb) Adaptive load balancing: includes balance-tlb plus receive load balancing (rlb) for IPV4 traffic, and does not require any special switch support. The receive load balancing is achieved by ARP negotiation. The bonding driver intercepts the ARP Replies sent by the local system on their way out and overwrites the source hardware address with the unique hardware address of one of the slaves in the bond such that different peers use different hardware addresses for the server.
sumber :
https://help.ubuntu.com/community/UbuntuBonding
failover pada bonding ini biasanya sudah otomatis melalui MII (media information interface) yang terdapat pada packages eth-tool![]()
salam

Offline
@si_faisal
yup... ada bond-mode dan bond-miimon...
option ini diaktifkan di modprobe tepatnya membuat file configuration /etc/modprobe.d/bonding.conf...
si_faisal wrote:
failover pada bonding ini biasanya sudah otomatis melalui MII (media information interface) yang terdapat pada packages eth-tool
bener... makanya sy bilang lebih stabil...

Offline
@ faisal ![]()
terima kasih buat tambahannya ![]()
btw, itu sudah disebutkan kok sebelumnya disini :
intinya/prinsip kerjanya hampir sama (karena pada L2-bonding pun ada mekanisme mode bonding yg mengatur apakah loadbalance/failover dsb)
@ opik ![]()
bener... makanya sy bilang lebih stabil...
hehehe... ini lho, kok maksa bonding terus dari kemarin ![]()
ini pertanyaannya ozi :
maaf berarti klo bonding apa bisa mengatasi masalah putus2 ym poker dan game online misal PB ?
btw, apakah speedy atau sambungan yg lain bisa di-bonding?
bila gateway-nya cuma 1 seperti usulan/contoh dari opik - terus apakah masih relevan mengusulkan bonding?
Offline
wew rame euy diskusi para moderator..hee..
@ozi
bukan masalah loadbalance atau bonding yg membuat koneksi ym,poker atau game online terputus..mungkin konfigurasi nya da yg terlewatkan/kurang...antara loadbalncing dan bonding sama2 ada kelebihan dan kekurangan nya kok..kekurangan nya bisa di siasati coba mampir di sini untuk mensiasati masalah yg muncul pada loadbalancing
http://opensource.telkomspeedy.com/foru … p?id=12275
buat bonding belum peraktek euy.. ![]()
Offline
abdi_wae wrote:
@ opik
bener... makanya sy bilang lebih stabil...
hehehe... ini lho, kok maksa bonding terus dari kemarin
ait... maksudnya?!
tidak ada yg maksain koq.... ![]()
yg ngajakin diskusi siapa?!... hayoooo... ![]()
abdi_wae wrote:
btw, apakah speedy atau sambungan yg lain bisa di-bonding?
bila gateway-nya cuma 1 seperti usulan/contoh dari opik - terus apakah masih relevan mengusulkan bonding?
pada umumnya...,
speedy jika paket sama didaerah yg sama pada umumnya gateway sama... ![]()
relevan atau tidak relevan tergantung kebutuhan... ![]()
ini loh dasarnya si ozi bertanyaan...
lupanama wrote:
gan........ maaf ganggu bang
saya sudah menerapkan cara loadbalancinya mas REZA, saya pasang 2 Speedy
tapi kok ketika saya mendownload dari INDOWEBSTER saya cuma dapet 100Kbps, padahal kalo model penggabungan dengan MIKROTIK, saya bisa dapet 200Kbps
mohon pencerahanya
terima kasih

Offline
halo lupanama ![]()
prinsip loadbalance yang pernah saya tulis, adalah dengan teknik nexthop menggunakan cache routing, dengan Equal Cost Multi Path (ECMP)
misal tujuan indowebster sudah diroute kan via gateway1,
jika ada request ke indowebster lagi, dia akan selalu melewati gateway1 tersebut hingga tabel routing nya di flush
jika ingin mengaplikasikan loadbalance seperti MikroTik, bisa menggunakan iptables mangle dengan pemanfaatan statistic nth untuk connection state new
@bang opik
setau saya, untuk mengaplikasikan bonding (loadbalance layer 2) harus dilakukan di kedua sisi.
untuk speedy yang menggunakan protokol pppoe, mungkin teknologi yang cocok adalah PPP multilink framing dan sepertinya speedy tidak support konfigurasi tersebut
hth ![]()

Offline
asumsi nya koneksi speedy yah ... pppoe base
sepengetahuan saya sampai saat ini, load balance di sisi end user tidak dalam artian untuk mendapatkan benwith yg lebih besar, hanya menyebarkan beban di tiap gateway
dan untuk load balance memang bermasalah dengan aplikasi yg berdasarkan ip untuk komunikasinya, karena di titik akhir ip yg keluar bukan 1 ip ...
ini cenderung dengan masalah persistent connection
untuk bonding dalam artian mendapatkan benwith lebih lebar, harus di lakukan di 2 sisi, provider dan end user ...
kalau untuk bonding di sisi network internal bisa menggunakan switch manageable yg ada feature aggregate link nya, tapi tetap ini hanya di sisi internal network
setuju dengan om @si_faisal bonding yg pake protokol pppoe adalah mlpp framing
hanya, kalau tidak salah, speedy tidak (atau belum) mensupport teknologi mlpp
seandainya bisa, 1+1+1=3, wrt54gl siap berkibar kembali ... ![]()
sekedar cuap2 saja komandan ![]()
kurangnya banyak ....
Offline
Aloo all ![]()
Loadbalance pada linux dalam mendistribusikan beban antar next hop secara default menggunakan per-flow (rujukan rfc2991, rfc2992), bukan per-connection, ataupun dengan per-packet.
Apakah dengan pendistribusikan secara per-packet dapat dihasilkan koneksi yang stabil/tidak putus-putus (untuk streaming)?
Seperti contohnya cisco yang mendukung loadbalance per-connection/per-packet.
Offline
@ faisal ![]()
terima kasih untuk penjelasan MLPPP-nya ![]()
btw, kalo dicoba dgn 2 mesin pakai vbox bisa nggak ya?
ppp kan ya?
sebentar :
gimana kalo sederhananya MLPPP digantikan dengan bonding PPP - sbb :
iface bond0
slaves ppp0 ppp1 ppp2
+---ppp0/eth0---+
| |
ppp-server/eth0---+---ppp1/eth1---+---bond0/ppp-klien---eth3
| |
+---ppp2/eth2---+kira2 bisa tidak ya?
terus ip, nat dan gateway-nya gimana?
@ serangku ![]()
kenapa nih dgn persisten connection-nya? nge-route atau nge-NAT?
@ wijayakto ![]()
Loadbalance pada linux dalam mendistribusikan beban antar next hop secara default menggunakan per-flow (rujukan rfc2991, rfc2992), bukan per-connection, ataupun dengan per-packet.
setuju - sederhananya = route cache - hampir semua mesin begitu kok ![]()
pertanyaannya : kenapa dibuat begitu? ![]()
kalo dulu sewaktu belajar : ada yg namanya FIB - apa sama ya?
Apakah dengan pendistribusikan secara per-packet dapat dihasilkan koneksi yang stabil/tidak putus-putus (untuk streaming)?
maksudnya untuk load balancing 2 pipa atau 1 pipa saja? pada WAN atau LAN?
sepertinya parameternya lumayan banyak ![]()
Seperti contohnya cisco yang mendukung loadbalance per-connection/per-packet.
wah, kalo bagian ini lupa nih ![]()
sepertinya masih route cache/perflow juga ![]()
Offline
@si_faisal & serangku
dulu banget (2-3thn yg lalu) sy dialnya tidak diserver tetapi dial di modem masing2 dan kebetulan modemnya bisa di telnet, makanya sy ilustrasinya slaves eth0 eth1 eth2...
tapi sepertinya bener kata si_faisal...
yg sy gak tahu adalah kondisi PPPoE di speedy tidak support...
abdi_wae wrote:
@ faisal
terima kasih untuk penjelasan MLPPP-nya
btw, kalo dicoba dgn 2 mesin pakai vbox bisa nggak ya?
ppp kan ya?
sebentar :
gimana kalo sederhananya MLPPP digantikan dengan bonding PPP - sbb :
iface bond0
slaves ppp0 ppp1 ppp2Code:
+---ppp0/eth0---+ | | ppp-server/eth0---+---ppp1/eth1---+---bond0/ppp-klien---eth3 | | +---ppp2/eth2---+kira2 bisa tidak ya?
terus ip, nat dan gateway-nya gimana?
dan, apa yg dibicarakan sesuai diagram kang abdi_wae tersebut, seharusnya bisa dilalukan dan insya allah klo sy gak salah NAT di interfaces bond0.... CMIIW...
ini kenapa koq pada bahas bonding dan loadbalance semuanya?! hiahahaha... tambah OOT tapi masih berhubungan....

Offline
mod abdi ![]()
pertanyaan yang sangat brainstorming..
kebetulan saya sudah melakukan bonding beberapa interface tunnel dan sepertinya juga bisa dilakukan dengan ppp ![]()
untuk ip, nat dan gateway akan sedikit rumit.
ip akan ditaruh di masing2 bonding interface
untuk gateway, kita harus memiliki beberapa tabel routing (untuk mengkoneksikan tiap2 ppp) dan sebagai default gateway yang melewati interface bond0
untuk NAT, cukup dilakukan di remote server interface yang menghadap ke internet
cuma untuk diaplikasikan di lapangan (dengan koneksi speedy) masih terkendala dengan pengaturan di sisi remote node (karena tentu saja kita tidak bisa menaruh server -di sisi telkom sana- sebagai lawan interface bonding)

Offline
@ opik ![]()
ini kenapa koq pada bahas bonding dan loadbalance semuanya?! hiahahaha... tambah OOT tapi masih berhubungan....
ini intermezzo sambil uji coba sedikit ![]()
@ faisal ![]()
sebentar, biar bahasannya tidak rancu - skemanya diperbaiki sbb ya (agar sesuai dgn topik threadnya) :
+---ppp0/eth0---+
|
[internet/bras] +---ppp1/eth1---+---bond0/ppp-klien---eth3
|
+---ppp2/eth2---+nah, kita jadikan ppp-server-nya sbg bras/internet, biar nggak bingung ![]()
kebetulan saya sudah melakukan bonding beberapa interface tunnel dan sepertinya juga bisa dilakukan dengan ppp
hmm, ok - dicoba dulu ![]()
ip akan ditaruh di masing2 bonding interface
maksudnya? apa ip publiknya PPP ditaruh di bond0, atau ip private di bond0? gimana yg ip-nya dinamis dhcp? apa bisa?
untuk gateway, kita harus memiliki beberapa tabel routing (untuk mengkoneksikan tiap2 ppp) dan sebagai default gateway yang melewati interface bond0
kenapa harus banyak tabel?
apa mekanisme equalize tidak cukup? seperti yg abdi tulis sebelumnya :
nah, hubungannya antara loadbalance dgn konfigurasi file /etc/network/interface - boleh tidak kalo abdi nulisnya seperti ini - pada ubuntu routernya :
Code:
iface eth0 inet static address 192.168.1.254 netmask 255.255.255.0 network 192.168.1.0 broadcast 192.168.1.255 gateway 192.168.1.1 gateway 192.168.1.2 gateway 192.168.1.3 gateway 192.168.1.n auto eth0
--- lanjut ---
untuk NAT, cukup dilakukan di remote server interface yang menghadap ke internet
ok, kita kembalikan proses NAT kesini dulu gimana?
iface bond0
slaves ppp0 ppp1 ppp2
--- ditambah ---
pre-up skrip ppp
--- atau cukup :
iface ppp0 inet static
auto ppp0
dst
nah, itu interface ppp juga punya IP atau tidak perlu? (apa cukup bond0? - terus, ip bond0 = harus publik atau private?)
NAT-nya harus ada di ppp atau di bond0?
bonding - mungkin tidak ada mode bonding yg tidak perlu di-setting 2 sisi? kalo tidak bisa, kenapa harus di-setting 2 sisi?
Offline