Gigabit Network

       ปัจจุบันเครือข่ายคอมพิวเตอร์ได้เข้ามามีบทบาทต่อชีวิตประจำวัน มากขึ้นทุกขณะการเจริญเติบโตของเครือข่ายคอมพิวเตอร์เหล่านี้เป็นไปอย่างต่อเนื่อง และยังไม่มีสัญญาณบ่งบอกว่าจะมีการชะลอตัวแต่อย่างใด ด้วยความต้องการการส่งผ่านข้อมูลที่เพิ่มขึ้นอย่างรวดเร็วตามขนาดและจำนวนเครื่องคอมพิวเตอร์ ที่ต่ออยู่บนเครือข่ายตลอดจนการเจริญเติบโตของอินเตอร์เน็ตอย่างรวดเร็วจึงทำให้เครือข่าย แบบดั้งเดิมที่มีความเร็วในการส่งผ่านข้อมูลอยู่ที่ 10 Mbps เริ่มจะไม่สามารถตอบสนองความต้องการของผู้ใช้ได้อย่างมีประสิทธิภาพ นักวิจัยจึงได้ทำการศึกษาค้นคว้าเพื่อให้สามารถรับส่งข้อมูลได้ที่ระดับความเร็ว 1 gigabit per second

        แต่ในปัจจุบันยังอยู่ในระหว่างการพิจารณา ประกาศใช้อย่างเป็นทางการซึ่งหมายความว่าอาจจะต้องมีการปรับปรุงแก้ไขในรายละเอียดของค่าพารามิเตอร์ต่างๆได้อีก

Gigabtit Speed and Today’s Protocol

        2-3 ปีที่ผ่านมานักวิจัยหลายท่านต่างคิดว่าโปรโตคอลซึ่งมีลักษณะเช่นเดียวกับ TCP/IP และ OSI ซึ่งใช้ในการเชื่อมโยงเครือข่ายในปัจจุบันจะต้องถูกแทนที่ด้วยโปรโตคอลใหม่อย่างสมบูรณ์ เพื่อรองรับความเร็วในระดับ gigabit ในความเป็นจริงแล้ว ตราบใดที่โปรโตคอล TCP/IP และ OSI ยังได้รับการยืนยันสนับสนุนอยู่ ความรู้ต่างๆที่เคยศึกษามาเกี่ยวกับความเร็วระดับสูงก็ยังไม่ไดัรับความสนใจ อย่างไรก็ตามการแทนที่ของโปรโตคอลเพื่อรองรับความเร็วในระดับgigabit ยังไม่ถึงเวลาอันควร

         ในปัจจุบันโปรโตคอลเชื่อมโยงเครือข่าย(Internetworking Protocol) ได้มีการพัฒนาความสามารถของการส่งข้อมูลที่ความเร็วระดับgigabit ในระดับหนึ่งเท่านั้น ได้มีการตั้งหลักและกฏต่าง ๆ มากมายที่เกี่ยวข้องกับ data networking ซึ่งได้มีการศึกษามาตลอด

         ระยะเวลา 20 ปีเพื่อที่จะนำมาประยุกต์ใช้กับ gigabit network ปัจจุบัน protocolยังไม่มีความสมบูรณ์และเหมาะสมเพียงพอเพื่อที่จะรองรับ application ต่าง ๆ ที่เกี่ยวกับ multimedia เนื่องจาก applicationต่าง ๆ เหล่านี้ต้องการการดำเนินบางอย่างของโปรโตคอล ซึ่งโปรโตคอลที่ใช้อยู่ปัจจุบันไม่สามารถทำให้ได้ ตัวอย่างเช่นควรมีการเพิ่มความสามารถบางอย่างเพื่อรับประกัน Maximum delay หรือ Minimum bandwidth

Fiber Obtic

        การพัฒนาของ gigabit Network จะมีการพัฒนาควบคู่ไปกับการพัฒนาของ Fiber Obtic จริงๆแล้วการส่งสัญญาณของ Fibert Obtic สามารถส่งสัญญาณได้ในระดับ gigabit per sec ในระยะทางไกล และมี error rateต่ำ ตลอดระยะการส่ง แสดงว่าgigabit network มีโอกาสที่จะเป็นไปได้ และประโยชน์ของมันราวกับว่าเป็นตัวกระตุ้นแก่นักวิจัยทั้งหลายในการศึกษาค้นคว้าเกี่ยวกับ gigabit network ต่อไป

        เนื่องจากสาย fiber และคุณสมบัติของสาย fiber มีบทบาทที่สำคัญใน gigabit networking ทั้งสายfiber obtic และคุณสมบัติของสาย fiber เป็นคุณสมบัติเบื้องต้นของ fiber obtic communication ที่เราต้องทำความเข้าใจ และคุณสมบัติเหล่านี้มีผลกระทบต่อการออกแบบ gigabit network

 

จุดเด่นของเส้นใยแก้วนำแสง
    จุดเด่นของเส้นใยแก้วนำแสงมีหลายประการ โดยเฉพาะจุดที่ได้เปรียบสายตัวนำทองแดง ที่จะนำมาใช้แทนตัวนำทองแดง จุดเด่นเหล่านี้มีการพัฒนามาอย่างต่อเนื่องและดีขึ้นเรื่อย ๆ ซึ่งประกอบด้วย
1. ความสามารถในการรับส่งข้อมูลข่าวสาร
     เส้นใยแก้วนำแสงที่เป็นแท่งแก้วขนเหล็ก มีการโค้งงอได้ ขนาดเส้นผ่าศูนย์กลางที่ใช้กันมากคือ 62.5/125 ไมโครเมตร เส้นใยแก้วนำแสงขนาดนี้เป็นสายที่นำมาใช้ภายในอาคารทั่วไป เมื่อใช้กับคลื่นแสงความยาวคลื่น 850 นาโนเมตร จะส่งสัญญาณได้มากกว่า 160 เมกะเฮิรตซ์ ที่ความยาว 1 กิโลเมตร แล้วถ้าใช้ความยาวคลื่น 1300 นาโนเมตร จะส่งสัญญาณได้กว่า 500 นาโนเมตร ที่ความยาว 1 กิโลเมตร และถ้าลดความยาวเหลือ 100 เมตร จะใช้กับความถี่สัญญาณมากกว่า 1 กิกะเฮิรตซ์ ดังนั้นจึงดีกว่าสายยูทีพีแบบแคต 5 ที่ใช้กับสัญญาณได้ 100 เมกะเฮิรตซ์
2. กำลังสูญเสียต่ำ
     เส้นใยแก้วนำแสงมีคุณสมบัติในเชิงการให้แสงวิ่งผ่านได้ การบั่นทอนแสงมีค่าค่อนค่างต่ำ ตามมาตรฐานของเส้นใยแก้วนำแสง การใช้เส้นสัญญาณนำแสงนี้ใช้ได้ยาวถึง 2000 เมตร หากระยะทางเกินกว่า 2000 เมตร ต้องใช้รีพีตเตอร์ทุก ๆ 2000 เมตร การสูญเสียในเรื่องสัญญาณจึงต่ำกว่าสายตัวนำทองแดงมาก ที่สายตัวนำทองแดงมีข้อกำหนดระยะทางเพียง 100 เมตร
     หากพิจารณาในแง่ความถี่ที่ใช้ ผลตอบสนองทางความถึ่มีผลต่อกำลังสูญเสีย โดยเฉพาะในลวดตัวนำทองแดง เมื่อใช้เป็นสายสัญญาณ คุณสมบัติของสายตัวนำทองแดงจะเปลี่ยนแปลงเมื่อใช้ความถี่ต่างกัน โดยเฉพาะเมื่อใช้ความถึ่ของสัญญาณที่ส่งในตัวนำทองแดงสูงขึ้น อัตราการสูญเสียก็จะมากตามแต่กรณีของเส้นใยแก้วนำแสงเราใช้สัญญาณความถี่มอดูเลตไปกับแสง การเปลี่ยนสัญญาณรับส่งข้อมูลจึงไม่มีผลกับกำลังสูญเสียทางแสง
3. คลื่นแม่เหล็กไฟฟ้าไม่สามารถรบกวนได้
     ปัญหาที่สำคัญของสายสัญญาแบบทองแดงคือการเหนี่ยวนำโดยคลื่นแม่เหล็กไฟฟ้า ปัญหานี้มีมาก ตั้งแต่เรื่องการรบกวนระหว่างตัวนำหรือเรียกว่าครอสทอร์ค การไม่แมตซ์พอดีทางอิมพีแดนซ์ ทำให้มีคลื่นสะท้อนกลับ การรบกวนจากปัจจัยภายนอกที่เรียกว่า EMI ปัญหาเหล่านี้สร้างให้ผู้ใช้ต้องหมั่นดูแล
แต่สำหรับเส้นใยแก้วนำแสงแล้วปัญหาเรื่องเหล่านี้จะไม่มี เพราะแสงเป็นพลังงานที่มีพลังงานเฉพาะและไม่ถูกรบกวนของแสงจากภายนอก
4. น้ำหนักเบา
    เส้นใยแก้วนำแสงมีน้ำหนักเบากว่าเส้นลวดตัวนำทองแดง น้ำหนักของเส้นใยแก้วนำแสงขนาด 2 แกนที่ใช้ทั่วไปมีน้ำหนักเพียงประมาณ 20 ถึง 50 เปอร์เซ็นต์ของสายยูทีพีแบบแคต 5
5. ขนาดเล็ก
    เส้นใยแก้วนำแสงมีขนาดทางภาคตัดขวางแล้วเล็กกว่าลวดทองแดงมาก ขนาดของเส้นใยแก้วนำแสงเมื่อรวมวัสดุหุ้มแล้วมีขนาดเล็กกว่าสายยูทีพี โดยขนาดของสายใยแก้วนี้ใช้พื้นที่ประมาณ 15 เปอร์เซ็นต์ของเส้นลวดยูทีพีแบบแคต 5
6. มีความปลอดภัยในเรื่องข้อมูลสูงกว่า
   การใช้เส้นใยแก้วนำแสงมีลักษณะใช้แสงเดินทางในข่าย จึงยากที่จะทำการแท๊ปหรือทำการตัดฟังข้อมูล
7. มีความปลอดภัยต่อชีวิตและทรัพย์สิน
   การที่เส้นใยแก้วเป็นฉนวนทั้งหมด จึงไม่นำกระแสไฟฟ้า การลัดวงจร การเกิดอันตรายจากกระแสไฟฟ้าจึงไม่เกิดขึ้น

 

An Introduction to Cell Networking

        แนวความคิดหนึ่งที่สำคัญของ gigabit network ที่เป็นเทคโนโลยีหนึ่งที่ได้รับความสนใจในขณะนี้ ชื่อที่เป็นที่รู้จักกัน เช่น Cell Networking, Cell Switching หรือ Cell Relay รูปแบบเฉพาะของ Cell Networking จะเป็นแบบ ATM ( Asynchronous transfer mode) ถูกพัฒนามาจาก CCITT หลังจากนั้นก็มี TSB มารับช่วงต่อ ซึ่งTSB เป็นส่วนหนึ่งของ B-ISDN (Board band Integrated Service Digital Network) เป็นเทคโนโลยีswitchที่ใช้ผสมข้อมูลใน network รวมไปกับสัญญาณโทรศัพท์

        อย่างไรก็ตาม gigabit networking ก็ยังคงสามารถขยายต่อไปได้เพื่อแก้ไขปัญหาหลายๆปัญหาที่ยังไม่มีทางแก้

Putting the pieces together

        ขั้นแรกที่สำคัญของ gigabit networking คือการพัฒนาขั้นตอนวิธีสำหรับการส่งข้อมูลในสื่อที่ส่งด้วยอัตราเร็ว gigabit ปัญหาในการพัฒนาขั้นตอนวิธีเพื่อให้สื่อสามารถส่งข้อมูลด้วยอัตราเร็ว gigabit คือความถูกต้องของข้อมูลที่ผู้รับได้รับ ขอบเขตของเทคโนโลยี gigabit พิจารณาจากเครือข่าย WDM (WDM Network), ATM/SONET และ HIPPI

        ถ้าปัญหาที่เกิดขึ้นคือ ข้อมูลที่ได้รับขาดหายไปผลที่ตามมา จะทำให้ความสามารถของ Packet Network ไม่ต่อเนื่อง อย่างไรก็ตามปัญหานี้ก็ไม่รุนแรงต่อภาวะข้างเคียงมากนัก เทคโนโลยีต่างๆ ในปัจจุบันที่เกิดขึ้นมากมายควรจะใช้ Internetworking Protocol อะไรในการดำเนินการกับเทคโนโลยีเหล่านี้ สิ่งที่แนะนำอย่างแรกก็คือ ATM แต่ว่าการตระเตรียม network ค่อนข้างจะยุ่งยากมากเกินไป การแก้ไขที่ดีกว่าเป็นการหารูปแบบของInternetworking protocol

        ปัจจุบัน Internetworking Protocol มีลักษณะเป็น IP และ CLMP ซึ่งมีความสามารถโดยทั่วไปเกี่ยวกับ gigabit data rate ของ IP และ CLMP

        IP และ CLMP มี Transport Protocol เช่นเดียวกันกับ UDP TCP และ TP4 ซึ่งดำเนินการบน gigabit

 

Gigabit Network Management

มีคำถามสองคำถามที่น่าสนใจเกี่ยวกับการจัดการ gigabit คือ

    1. เกิดอะไรขึ้นถ้าหาก bandwidth มีขนาดกว้างขึ้น
    2. บริเวณที่ตระเตรียมเอาไว้สามารถรับประกันการจัดการที่ซับซ้อนขึ้นได้หรือไม่

         bandwidth ที่มีขนาดใหญ่ จะมีผลกระทบต่อการจัดการ bandwidth และ bandwidth ที่มีจำนวนมาก สามารถทำให้ข้อมูลไปผิดทางได้ในหนึ่งหน่วยเวลา ข้อตกลงคือระบบการจัดการอาจจะต้องวางให้ฉลาดเพียงพอที่จะสามารถใช้ร่วมกับอุปกรณ์ที่ถูกจัดการได้ สามารถเปรียบเทียบการเข้าถึงได้ ตัวอย่างเช่น Simple Network Management Protocol ( SMNP ) ซึ่งพยายามจำกัดการจัดการ Information ที่เก็บใน Device

         การรับประกันการบริหารนี้อาจจะต้องการอุปกรณ์ที่ฉลาดมากขึ้นพอสมควร เพราะอุปกรณ์จำเป็นที่จะต้องเรียกข้อมูลในเส้นทางเดิม พร้อมกับพยายามรักษาFlow ที่รับรองก่อนหน้า

         Note ข้อยกเว้นของการจัดการ network ปัญหาเหล่านี้ไม่ต้องแก้เพื่อแปลง gigabit Network ตัวอย่างเช่น เมื่อ 20 ปีก่อน มีการดำเนินงานที่ยุ่งเหยิงมากกับโปรโตคอลที่ไม่ตรงกัน อย่างไรก็ตาม ตลอดระยะเวลาที่ผ่านมาปัญหานี้ก็ยังต้องใช้ address

Routing Packet at Gigabit rate

กลไกที่ใช้กำหนดเส้นทางเดินของ Packet กล่าวโดยภาพรวมประกอบด้วย 3 ส่วน

    1. A set of network เป็นตัวเชื่อมระหว่างเครือข่ายต่างๆ ไปยังอุปกรณ์
    2. Forwarding Processor เป็นตัวตัดสินใจว่าจะส่ง Packet แต่ละ Packet ไปที่ไหน
    3. A connection fabric เป็นการติดต่อระหว่าง network interface กับ forwarding processor และย้าย Packet ระหว่างจุดเชื่อมต่อแบบ Direct โดย forwarding processor

การส่ง Packet ที่อัตรา gigabit ทั้งสามส่วนนี้จะต้องทำงานที่ความเร็ว gigabit การสร้าง

การเชื่อมต่อแบบ gigabit การพัฒนา forwarding processor ซึ่งสามารถตัดสินใจได้ว่าจะส่ง packetไปที่ไหน ส่งpacketด้วยความเร็วที่เพียงพอเพื่อรักษาระดับความเร็วของ Packet ให้คงที่ ด้วย gigabit data rate โดยไม่ให้มีความผิดปกติเกิดขึ้นกับ packet ที่ผู้รับจะได้รับมากนัก นักวิจัยศึกษามานานแล้วพบว่าการออกแบบตัวประมวลผลด้วยความระมัดระวัง มันเป็นไปได้ที่ค่อนข้างจะใช้ processor น้อยเพื่อส่ง packet ที่อัตราไม่เปลี่ยนแปลง ด้วยความเร็วระดับ gigabit

         Forwarding Packet เป็นตัวอย่างหนึ่งของเนื้อหาที่ไม่เปลี่ยนแปลง มันจะตรวจสอบเฉพาะheader ของpacket กำหนดขั้นต่อไปในเส้นทางการส่ง packet ถึงปลายทางของมัน และอาจจะมีการเปลี่ยนแปลง header ของ packet ด้วย สังเกตได้ว่าที่อยู่ของปลายทางของ packet มักจะพบอยู่ที่ส่วน header ของ packet

         ดังนั้น header จึงเป็นเพียงส่วนเดียวซึ่งจำเป็นในการประมวลผลของ forwarding a packet

โพรโตคอลสำหรับระบบเครือข่ายความเร็วสูงมาก

         ระบบเครือข่ายความเร็วสูงมาก (gigabit network) ได้เริ่มนำออกมาใช้ในตอนต้นของทศวรรษที่ 1990 ได้มรการนำโพรโตคอลแบบเดิมมาใช้งานร่วมกันแต่ก็เกิดปัญหาขึ้นมากมาย

         ปัญหาแรกที่เกิดขึ้นคือ โพรโตคอลแบบเก่าใช้หมายเลขลำดับขนาด 16 บิต หรือ 32 บิต ตัวเลขขนาด 232 นั้นถือว่ามีค่าเป็นอนันต์ (infinity)          ในเทคโนโลยีเดิมแต่ไม่เป็นจริงสำหรับเทคโนโลยีใหม่ในการส่งข้อมูงที่ความเร็ว 1 พันล้านบิตต่อวินาทีจะสามารถส่งข้อมูลขนาด 232 ไบต์ได้ภายในเวลา 32 วินาทีเท่านั้น หมายความว่าผู้ส่งเริ่มต้นส่งข้อมูลไบต์แรกออกไป ในอีก 32 วินทีต่อมาก็จะวนกลับมาส่งข้อมูลไบต์แรก (ของข้อมูลชุดที่สอง) ใหม่ แม้ว่าข้อมูลจะได้รับการตอบรับแล้วก็ตาม แต่ผู้ส่งก็ไม่อาจแน่ใจได้ว่าข้อมูลที่ส่งออกไปชุดแรกนั้นเดินทางไปถึงผู้รับแล้วหรือยัง ดังเช่นในระบบอินเทอร์เน็ต แพ็กเก็ตข้อมูลสามารถวิ่งวนอยู่ในระบบได้นานถึง 120 วินาทีก่อนทีจะถูกลบทิ้ง สถานการณ์นี้จะยิ่งแย่ลงไปอีกถ้าหมายเลขลำดับเป็นเลขขนาดเพียง 16 บิต

         ปัญหานี้เกิดขึ้นเนื่องจากผู้ออกแบบโพรโตคอลแบบเก่าตั้งข้อสมมติฐานโดยไม่เขียนไว้ให้ชัดเจนว่า หมายเลขลำดับนั้นมีมากเกินกว่าที่จะใช้ให้หมด (แล้วเริ่มวนกลับมาใช้เลขเดิม) ซึ่งแพ็กเก็ตที่ส่งออกไปในระบบเครือข่ายจะหมดอายุและถูกกำจัดออกไปจนหมดสิ้นแล้ว ดังนั้นการวนกลับมาใช้หมายเลขเดิมจึงไม่มีผลกระทบใด ๆ เกิดขึ้นเลย แต่ข้อสมมติฐานนี้ไม่เป็นจริงในระบบเครือข่ายความเร็วสูงมากในปัจจุบัน

        ปัญหาข้อที่สองคือ ความเร็วในการส่งข้อมูล (communication speed) นั้นได้รับการพัฒนาให้มีความเร็วสูงขึ้นมากกว่าความเร็วในการประมวลผล (computing speed) ใราวทศวรรษที่ 1970 เครือข่าย ARPANET มีความเร็วในการส่งข้อมูล 56 กิโลบิตต่อวินาทีในขณะที่เครื่องคอมพิวเตอร์มีความเร็วในการประมวลผล 1 MIPS (ล้านคำสั่งต่อวินาที) แพ็กเก็ตมีขนาด 1008 บิต จึงสามารถส่งข้อมูลได้ 56 แพ็กเก็ตต่อวินทีทำให้มีระยะเวลาในการประมวลผลประมาณ 18 มิลลิวินาทีต่อแพ็กเก็ต โฮสต์สามารถกำหนดให้ CPU ทำงาน 18,000 คำสั่งสำหรับการประมวลผลแต่ละแพ็กเก็ต ซึ่งอาจจะทำให้ CPU ไม่มีเวลาเหลือไปทำงานอื่นมากนัก อย่างไรก็ตาม ในทางปฏิบัติการกำหนดให้ CPU ทำงานเพียง 9,000 คำสั่งสำหรับการประมวลผลแต่ละแพ็กเก็ตก็เป็นการเพียงพอแล้ว

        ในปัจจุบัน เราทำงานกับเครื่องคอมพิวเตอร์ 100 MIPS เพื่อแลกเปลี่ยนข้อมูลขนาด 4 กิโลไบต์บนสายสื่อสารความเร็วสูงมาก (gigabit line) แพ็กเก็ตสามารถวิ่งเข้ามาด้วยความเร็วกว่า 30,000 แพ็กเก็ตต่อวินาที ทำหใมีเวลาในการประมวลผลเพียง 15 ไมโครวินาที (microsecond) ต่อแพ็กเก็ตซึ่งเครื่องคอมพิวเตอร์สามารถประมวลผลคำสั่งได้เพียง 1,500 คำสั่งหรือประมาณ 1/6 เท่าของที่เคยเกิดขึ้นในระบบ ARPANET เท่านั้นเอง สถานการณ์จะยิ่งแย่ลงไปกว่านี้ถ้าเลือกใช้เครื่องคอมพิวเตอร์แบบ RISC ซึ่งแต่ละคำสั่งสมารถทำงานได้น้อยกว่าคำสั่งในเครื่องคอมพิวเตอร์แบบเดิมที่เป็น CISC ข้อสรุปในที่นี้คือเครือ่งคอมพิวเตอร์มีเวลานั้อยลงสำหรับการประมวลผลจึงมีความจำเป็นจะต้องปรับปรุงโพรโตคอลให้ทำงานง่ายกว่าเดิม

        ปัญหาประการที่สามเกิดขึ้นกับโพรโตคอล “go back n” ซึ่งมีประสิทธิภาพการทำงานต่ำมากเมื่อนำมาใช้กับสายสื่อสารที่มีค่า bandwidth-delay product สูงมาก ตัวอย่างเช่น สายความยาว 4,000 กิโลเมตรทำงานที่ความเร็ว 1 ล้านบิตต่อวินาที มีระยะเวลาเดินทางข้อมูลหนึ่งรอบ 40 มิลลิวินาที ซึ่งผู้ส่งจะสามารถส่งข้อมูลออกมาได้ 5 เมกะไบต์ ถ้าผู้รับตรวจพบความผิดพลาดในการนำส่งข้อมูล ผู้ส่งจะรับทราบข่าวนั้นในอีก 40 มิลลิวินาทีต่อมา ถ้านำโพรโตคอล “go back n” มาใช้ ผู้ส่งนอกจากจะต้องส่งแพ็กเก็ตที่เสียหายแล้ว ผู้ส่งจะต้องส่งข้อมูล 5 เมกะไบต์ที่ได้ส่งออกไปแล้วเป็นรอบที่สอง ทำให้เกิดการสิ้นเปลืองอย่างมหาศาลทีเดียว

       ปัญหาข้อที่สี่ สายสื่อสารความเร็วสูงมากมีพื้นฐานแตกต่างจากสิ่งที่เกดิขึ้นกับสายสื่อสารความเร็วสูง (megabit line) นั่นคือมีข้อจำกัดในการส่งอยู่ที่ระยะเวลาไม่ใช่ขนาดความกว้างของช่องสื่อสารในรูปที่ 1 แสดงตารางระยะเวลาที่ใช้ในการส่งแฟ้มข้อมูลขนาด 1 ล้านบิตเป็นระยะทาง 4,000 กิโลเมตรโดยใช้ความเร็วในการส่งข้อมูลต่างๆ กัน ที่ความเร็วขึ้นไปถึง 1 ล้านบิตต่อวินาที ระยะเวลาในการส่งข้อมูลขึ้นอยู่กับความเร็วในการส่งข้อมูลเป็นหลัก คือยิ่งส่งข้อมูลได้เร็วก็จะใช้ระยะเวลาน้อยลง แต่ที่ความเร็วการส่งข้อมูลสูงกว่า 1 ล้านบิตต่อวินาทีจะถูกบังคับโดยระยะเวลาเดินทางของข้อมูลหนึ่งรอบคือ 40 มิลลิวินาที ทำให้ไม่สามารถลดระยะเวลาที่ใช้แม้ว่าจะส่งข้อมูลเร็วขึ้นกว่าเดิมก็ตาม รูปที่ 1 ไม่ได้แสดงโพรโตคอลที่นำมาใช้ซึ่งเป็นแบบ “stop-and-wait” เช่น RPC มีขีดจำกัดสูงสุดอยู่ที่ความเร็วของแสง

 

          ปัญหาข้อที่ห้า เป็นผลพวงที่เกิดขึ้นจากโปรแกรมประยุกต์ที่นำมาใช้ซึ่งมีปริมาณข้อมูลขนาดมหาศาล เช่น โปรแกรม multimedia ทั้งหลาย โปรแกรมประเภทนี้ทำให้เกิดข้อจำกัดใหม่ขึ้นมานอกเหนือจากระยะเวลาเดินทางของข้อมูลหนึ่งรอบ คือ ระยะเวลาการตอบสนองต่อผู้ใช้ซึ่งเน้นการทำงานในลักษณะความเร็วคงที่ (uniform arrival rate) มากกว่าความเร็วสูงแต่ไม่แน่นอน

         ข้อสมมติฐานเบื้องต้นสำหรับการส่งข้อมูลความเร็วสูงมากคือ ออกแบบมาเพื่อความเร็วโดยไม่ได้เน้นว่าจะต้องให้ผลดีที่สุด โพตโตคอลแบบเดิมได้รับการออกแบบมาโดยกำหนดจำนวนบิตข้อมูลไว้อย่างจำกดัมาก เขตข้อมูลสำหรับการควบคุมต่าง ๆ จึงมักจะมีขนาดเล็กมากเท่าที่จะสามารถใช้งานได้ในปัจจุบันสายสื่อสารมีช่องสัญญาณความกว้างสูงมากแต่กลับมีปัญหาที่จะต้องลดการทำงานของโพรโตคอลให้น้อยที่สุด (เพื่อให้ได้ความเร็วสูงสุด)

         หนทางที่เป็นไปได้ทางหนึ่งในการส่งข้อมูลความเร็วสูงมากคือ การออกแบบส่วนติดต่อเครือข่ายความเร็วสูงไว้ในอุปกรณ์สื่อสารโดยตรง ซึ่งก็มีข้อแม้ว่าโพรโตคอลสื่อสารที่ใส่เข้าไปนั้นจะต้องเป็นแบบที่ง่ายไม่มีความซับซ้อน มิฉะนั้นแล้วจะกลายเป็นว่าจะต้องสร้างอุปกรณ์สื่อสารที่มี CPU และโปรแกรมควบคุมการทำงานเป็นของตนเอง และเพื่อไม่ให้อุปกรณ์ดังกล่าวมีราคาแพงเกินไปจึงหันมาใช้ CPU ประสิทธิภาพต่ำที่มีราคาถูกกว่ามาก ผลกระทบที่เกิดตามมาคือตัว CPU หลักที่มีประสิทธิภาพสูงจะไม่มีงานทำเพราะต้องรอคอยข้อมูลสู่วิกฤตที่ CPU ตัวที่สองกำลังประมวลผลอยู่ (อย่างช้า ๆ) แม้ว่าในระหว่างการอคอยนั้น CPU หลักอาจมีงานส่วนอื่นที่สามารถทำไปพร้อม ๆกัน แต่ในความเป็นจริงก็ไม่เป็นเช่นนี้บ่อยนัก นอกจากนี้ เมื่อใดก็ตามที่ CPU สองตัวมีการสื่อสารถึงกันก็จะต้องคำนึงถึงกฎกติการที่จำนำมาใช้เพื่อให้ CPU ทั้งสองทำงานประสานกันได้ดี ดังนั้นจึงความจำเป็นที่จะต้องศึกษาพัฒนาโพรโตคอลใหม่เพื่อควบคุมให้ CPU ทั้งสองตัวสามารถทำงานร่วมกันได้อย่างมีประสิทธิภาพ หนทางปฏิบัติที่ดีที่สุดที่ใช้กันโดยทั่วไปจึงลงเอยด้วยการใช้ CPU หลักเพียงตัวเดียวแต่ออกแบบโพรโตคอลให้ลดความซับซ้อนลงให้มากกว่าเดิม

         ต่อไปหันกลับมาพิจารณาเรื่องการส่งข้อมูลย้อนกลับ (feedback) ที่ผู้รับจะต้องส่งกลับมาให้ผู้ส่งข้อมูล เนื่องจากระยะเวลารอคอยที่ยาวนานเมื่อเปียบเทียบกับความเร็วในการส่งข้อมูล การส่งข้อมูลย้อนกลับจึงเป็นสิ่งที่ควรหลีกเลี่ยง เพราะผู้ส่งจะมีความรู้สึกว่าการตอบรับจากผู้รับนั้นใช้เวลานานเกินไป ตัวอย่างหนึ่งของการแก้ไขวิธีการตอบรับโดยใช้โพรโตคอล “rate-based” ซึ่งอนุญาตให้ผู้ส่งทำการส่งข้อมูลได้อย่างต่อเนื่องอยู่ตลอดเวลาโดยมีข้อแม้ว่าผู้ส่งจะต้องส่งข้อมูลด้วยอัตราความเร็วไม่มากเกินไปกว่าอัตราความเร็วที่ได้ตกลงกับผู้รับข้อมูลไว้เป็นการล่วงหน้าเท่านั้น

         ตัวอย่างที่สองนำมาใช้กับอัลกอริทึม “slow start” ของ Jacobson ซึ่งจะทำการทดสอบค่าความเร็วในการส่งข้อมูลที่เป็นไปได้อยู่เสมอ การกระทำดังกล่าวในระบบเครือข่ายความเร็วสูงมากอาจทำให้เกิดปัญหาการสูญเสียช่องสื่อสารไปโดยเปล่าประโยชน์สูงมาก หนทางปฏิบัติที่ดีกว่าคือการให้ผู้ส่ง, ผู้รับ, และระบบเครือข่ายจัดการสำรองทรัพยากรที่จำเป็นต้องใช้ไว้ตั้งแต่ในขั้นตอนการจัดตั้งช่องสื่อสาร ซึ่งยังเกิดประโยชน์ในการลดความเสี่ยงที่จะเกิดปัญหาข้อมูลสะดุด (jitter) ในระหว่างการทำงานด้วย กล่าวโดยรวมแล้ว วิธีการจัดการส่งข้อมูลที่ความเร็วสูงมากวิธีการใด ๆ ก็ตาม จะหันเหเข้าสู่รูปแบบการเชื่อมต่อแบบต่อเนื่อง (connection-oriented) ในที่สุด

         โครงสร้างของแพ็กเก็ตก็เป็นองค์ประกอบที่สำคัญอีกอย่างหนึ่งในระบบเครือข่ายความเร็วสูง ข้อมูลส่วนหัวควรจะเก็บข้อมูลไว้ให้น้อยที่สุด เพื่อลดเวลาในการประมวลผล แต่ก็จะต้องมีมากพอสำหรับควบคุมการสื่อสารได้อย่างดี และจะต้องมีขนาดเป็นสัดส่วนพอดีกับขนาดของคำ (word) เพื่อความง่ายในการประมวล ขนาดที่พอดีนั้นจะต้องแน่ใจได้ว่าปัญหาเช่นจำนวนหมายเลขลำดับไม่เพียงพอ หรือผู้รับไม่สามารถกำหนดขนาดหน้าต่างสื่อสารให้ใหญ่พอ เนื่องจากขนาดหมายเลขนั้นเล็กเกินไป จะต้องไม่เกิดขึ้นอย่างเด็ดขาด

         การตรวจสอบความถูกต้องของข้อมูลส่วนหัวจะต้องแยกออกจากกันเพื่อเหตุผล2 ประการ ประการแรกเพื่อให้สามารถตรวจสอบความถูกต้องเฉพาะข้อมูลส่วนหัว (ซึ่งจำเป็นจะต้องกระทำในระหว่างการรับ-ส่ง ข้อมูล) โดยไม่ต้องตรวจข้อมูลจริง ประการที่สอง เพื่อเป็นการยืนยันความถูกต้องก่อนที่จะเริ่มทำการคัดลอกข้อมูลจริง ไปยังโพรเซสของผู้ใช้ โดยปกติแล้วการตรวจสอบความถูกต้องของข้อมูลจริง จะเกิดขึ้นในระหว่างการส่งมอบข้อมูลให้แก่โพรเซสผู้ใช้ ซึ่งถ้าข้อมุลส่วนหัวมีข้อผิดพลาดก็อาจจัดส่งข้อมูลไปยังโพรเซสที่ไม่ถูกต้อง ดังนั้นการแยกการตรวจสอบออกจากกัน จึงเป็นสิ่งที่จำเป็นต้องทำ

         ข้อมูลที่จะส่งนั้นควรมีขนาดใหญ่พอสมควร เพื่อเป็นการรับประกันว่าการสื่อสารจะยังคงมีประสิทธิภาพสูงแม้ว่าจะมีระยะเวลารอคอยที่ยาวนาน นอกจากนี้การส่งข้อมูลขนาดใหญ่ยังเป็นการลดจำนวนกลุ่มข้อมูลให้มีน้อยลง และยังสามารถส่งข้อมูลมาพร้อมกับการร้องขอการเชื่อมต่อช่องสื่อสาร ซึ่งจะเป็นการลดระยะเวลาในการทำงานลงได้อย่างน้อย 1 วงรอบของการส่งข้อมูล

         ท้ายที่สุด การออกแบบโพรโตคอล จะมุ่งไปที่ความสำเร็จของการส่งข้อมูลในขณะที่โพรโตคอลแบบเดิมนั้นจะเน้นไปที่การแก้ไขปัญหาเมื่อมีความผิดพลาดอย่างใดอย่างหนี่งเกิดขึ้น การส่งข้อมูลความเร็วสูงมากจำเป็นจะต้องพิจารณาถึงการประมวลผลโดยใช้ระยะเวลาสั้นที่สุด ในขณะที่องค์ประกอบทุกอย่างทำงานอย่างถูกต้อง การลดเวลาสำหรับการแก้ปัญหา เมื่อเกิดข้อผิดพลาดเป็นเพียงข้อพิจารณาที่มีความสำคัญรองลงมา

         การลดเวลาสำหรับการคัดลอกข้อมูลก็เป็นเรื่องสำคัญอีกอย่างหนึ่งที่จะต้องจัดการแก้ไขให้สำเร็จเนื่องจากระยะเวลาที่ใช้ในการคัดลอกข้อมูลนั้น มักจะกินเวลานาน และเป็นตัวประกอบหลักของค่าโสหุ้ยที่เกิดขึ้นในระหว่างการสื่อสาร ถ้าเป็นไปได้โปรแกรมควรที่จะคัดลอกข้อมูลเข้าไปไว้ในหน่วยความจำ ในพื้นที่ติดกันเป็นกลุ่มก้อนเดียว (Contiguous block) ซึ่งจะสามารถส่งข้อมูลนี้ไปให้กับโพรเซสของผู้ใช้ได้ในการคัดลอกเพียงครั้งเดียว ยิ่งไปกว่านี้กระบวนการคัดลอกข้อมูลควรที่จะได้รับการออกแบบอย่างละเอียดถี่ถ้วนลงไปถึงการทำงานระดับเครื่อง (Machine Level) เช่น การคัดลอกข้อมูล 1024 คำ ควรที่จะใช้คำสั่งการเคลื่อนย้ายข้อมูลแบบโดยตรงเพียง 1024 ครั้ง หรือใช้คำสั่งอ่านและบันทึกข้อมูล 2048 ครั้ง

        ในช่วงปลายทศวรรษที่ 1980 มีการศึกษาโพรโตคอลส่งข้อมูลความเร็วสูงออกมาจำนวนหนึ่งเช่น โพรโตคอล NETBLT ของ Clark et al., 1987, VTMP ของ Cheriton and Williamson (1989), และ XTP ของ Chesson (1989) การสำรวจผลการศึกษามีปรากฎในรายงานของ Doeringer et al., 1990 อย่างไรก็ตามแนวโน้มในปัจจุบัน เน้นไปที่การลดความซับซ้อนของโพรโตคอลที่มีใช้กันโดยทั่วไป เพื่อให้สามารถทำงานได้เร็วขึ้น ระบบ ATM และ IPv6 เป็นตัวอย่างของความพยายามดังกล่าว

Gigabit Network Testbeds

        โครงสร้างหลักของอินเทอร์เน็ตส่งข้อมูลที่ความเร็วในหลัก “เมกะ”(ล้าน) บิตต่อวินาที นักวิจัยค้นคว้าทั้งหลายกำลังพยายามสร้างระบบที่สามารถส่งข้อมูลที่ความเร็วในหลัก “กิกะ” (พันล้าน) บิตต่อวินาที (gigabit per second ) ซึ่งจะช่วยในการพัฒนาโปรแกรมประยุกต์รุ่นใหม่ที่ต้องการความสามารถในการถ่ายเทข้อมูลสูงมาก ในหัวข้อนี้จะกล่าวถึงตัวอย่างของระบบดังกล่าวที่ได้รับการสร้างขึ้นมาเพื่นอทำการทดลองระบบเครือข่าายที่มีความเร็วในหลัก กิกะบิตต่อวินาที แต่ทั้งนี้ระบบที่มีความเร็วสูงขึ้นไม่มีส่วนช่วยในการลดเวลารอคอย (delay) ในระบบฯเลย ตัวอย่างเช่น ต้องการส่งข้อมูลขนาด 1 กิโลบิต จากสถานที่แห่งหนึ่งไปยังสถานี ปลายทางที่อยู่ไกลออกไป ถ้าระบบฯสามารถส่งข้อมูลที่ความเร้ศว 1 เมกะบิตต่อวินาที่ จะใช้เวลา 1 มิลลิวินาที ในการส่งข้อมูล และใช้เวลาอี 20 มิลลิวินาทีสำหรับการรอคอยที่เกิดขึ้นในระบบฯ รวมเวลาทั้งหมด 21

        มิลลิวินาทีในการส่งข้อมูล จากผู้ส่งไปยังผู้รับ ถ้าสามารถส่งข้อมูลที่ความเร็ว 1 กิกะบิตต่อวินาทีจะใช้เวลา 0.001 มิลลิวินาทีในการส่งข้อมูล แต่ยังคงใช้เวลาอีก 20 มิลลิวินาที สำหรับการรอคอยฯ รวมเวลาทั้งหมด 20.001 มิลลิวินาที จึงเห็ฯได้ว่าความเร้ซในการส่งข้อมูลที่เพิ่มขึ้นถึงหนึ่งพันเท่านั้นอทบจะกล่าวได้ว่าไม่ได้ช่วยให้เกิดประโยชน์อันใด สำหรับงานทั่วไป การลดเวลาในการรอคอยจะเกิดผลดีที่สุดเห็นรูปฑรรมมากกว่าการเพิ่มความเร็วในการส่งข้อมูล อย่างไรก็ตาม ความเร็วในการส่งข้อมูลที่ระดับสูงมากนั้นจะก่อให้เกิดประโยชน์มหาศาลแก่งานประยุกต์บางประเภทซึ่งเป็นหัวข้อที่จะนำมาพิจารณาต่อไป

ตัวอย่างงานประยุกต์ที่ต้องการระบบส่งข้อมูลความเร็วสูงมาก

  1. การตรวจรักษาคนไข้จากระยะไกล (telemedicne)       โดยทั้วไปคนไข้จะตรวจรักษากับนายแพทย์ส่วนตัวซึ่งมักจะเป็นรักษาโรคทั่วไปที่ความคุ้นเคยกันแลอยุ่ในบริเวณที่เดียวกับคนไข้ ในกรณีที่คนไข้ต้องการปรึกษากับแพทย์ที่มีความเชี่ยวชาญเฉพาะด้าน เช่นแพทย์ผู้เชี่ยวชาญทางสมอง แพทย์ประจำตัวฯก็จะต้องส่งตัวคนไข้นั้นไปพบผู้เชี่ยวชาญซึ่งอาจจะอยู่ไกลออกไปตั้งแต่หลายกิโลเมตรไปจนถึงอยู่ห่างกันคนละซีกโลกก็ได้ ทำให้เสียเวลาและค่าใช้จ่ายมากมาย แทนที่จะให้คนไข้เดินทางไปหาผู้เชี่ยวชาญฯ (หรือในทางกลับกันก็ได้) ระบบการตรวจรักษาคนไข้จากระยะไกลจะช่วยให้นายแพทย์ส่วนตัวของคนไข้สมารถตรวจได้ในทันทีโดยไม่ตองให้ผู้เกี่ยวข้องเดินทางไปไหนเลย อย่างไรก็ตาม ข้อมูลที่ต้องการนี้มักจะเป็นข้อมูลประเภทรูปภาพ เช่น รูปเอกซ์เรย์ภาพตรวจสมองประเภท CAT หรือ MRI ภาพประเภทนี้จะต้องถ่ายเป็นชุด ชุดหนึ่งอาจมีมากถึง 100 รูป ซึ่งเมื่อแปลงเป็นข้อมูลคอมพิวเตอร์และอาจมีขนาดมากกว่า 4 หมื่นล้านบิต ถ้าส่งข้อมูลชุดนี้ที่ความเร็ว 1 เมกะบิตต่อวินาที จะต้องใช้เวลานานถึง 4 หมื่นวินาทีหรือมากกกว่า 11 ชั่วโมง แต่ถ้าส่งข้อมูลที่ความเร็ว 1 กิกะบิตต่อวินาทีจะใช้เวลาเพียง 40 วินาทีเท่านั้น
  2. การประชุมผ่านระบบเครือข่าย (videoconferencing or virtual meeting)    

       ผู้ร่วมประชุมแต่ละท่านจะเข้ามาอยู่ในห้องที่จัดขึ้นเป้นพิเศษโดยมีกล้องทีสามารถจับภาพ และเสียงของคนที่อยู่ในห้องนั้นได้ทุกคน ตัวระบบจะจัดการผสมผสานรูปและสียงของผู้เข้าประขุมทุกคน ซึ่งบางส่วนอาจนั่งอยู่ในห้องเดียวกัน อีกหลายส่วนอาจอยู่ห่างกันหลายร้อยหลายพันกิโลเมตรเข้าด้วยกันและส่งข้อมูลนั้นไปยังแว่นสามมิติที่ทุกคนจะต้องสวมไว้ ภาพที่เกิดขึ้น (ในแว่นฯ) จะทำให้ผู้สวมแว่นมองเห็นส่วนต่างๆรวมทั้งผู้เข้าร่วมประชุมเสือนหนึ้งว่าทุกคนกำลังนั่งอยู่ในห้งอประชุมเดียวกัน ผลที่เกิดขึ้นคือการตัดเวลาที่ใช้ในการเดินทางออกไปได้ ทำให้มีเวลาในการทำงานด้านอื่นหรือเข้ามาร่วมประชุมอื่นๆได้มากขึ้น อย่างไรก็ตาม สรุปเป็นข้อสังเกตได้ 3 ข้อคือ

    1. ข้อมูลบางประเภทนี้แม้ว่าจำนวนบิตต่อหน่วยเวลาอาจจะไม่มากนักเมื่อเทียบกับข้อมูลในตัวอยางแรก แต่ก็จัดว่ามีขนาดใหญ่เมื่อเทียบกับข้อมูลทั่วไป
    2. เป็นข้อมูลที่จะต้องมีการถ่ายทอดอยู่ตลอดเวลาทำให้จำนวนบิตทั้งหมด (ตลอดการประชุม)อาจมีปริมาณมากกว่าข้อมูลในตัวอย่างแรกหลายเท่าตัวก็ได้
    3. ในแต่ละวินาทีข้อมูลชุดเดียวกันอาจจะต้องถ่ายทอดไปยังผุ้ใช้หลายแห่งทำให้มีปริมาณข้อมูลหมุนเวียนในระบบเครือข่ายสูงมากกว่าปกติ  

      เริ่มตั้งแต่ปี ค.ศ. 1989 เป็นต้นมา ARPA และ NSF ได้ให้ทุนสนับสนุนการวิจัยการส่งข้อมูลความเร็วสูงมากหลายโครงการซึ่งสามารถสรุปได้ดังต่อไปนี้

    1. โครงการ Aurora      ได้ทดลองสร้างเครือข่ายเชื่อมต่อหองทดลองสี่แห่งทางตะวันออกเฉียงเหนือของสหรัฐอเมริกา คือ สถาบัน M.I.T., มหาวิทยาลัย University of Pensylvania, ห้องทดลอง IBM’s T.J. Watson Lab, และห้องทดลอง Bellcore โดยทดลองส่งข้อมูลที่ความเร็ว 622 เมกะบิตต่อวินาที โครงการนี้สรุปผลออกมาทางด้านสวิตชิ่งเทคโนโลยีกิกะบิตโปรโตคอล (gigabit protocol) เทคนิคการเลือกทางเดินข้อมูล การควบคุมเครือข่ายหน่วยความจำเสมือนบนเครือข่าย และการประชุมผ่านระบบเครือข่าย
    2. โครงการ Blanca

            เป็นโครงการที่ได้รับทุนจาก ARPA และ NSF ให้พัฒนาต่อมาจากโครงการ XUNET ซึ่งเป็นความร่วมมือของ AT&T Bell Labs, UCLA (Berkeley), และ University of Wisconsin โดยเพิ่มห้องทดลอง LBL, ศูนย์วิจัย Cray Research, และ University of Illinois เข้าไปด้วย การส่งข้อมูลในบางส่วนของโครงการนี้กระทำที่ความเร็ว 622 เมกะบิตต่อวินาที นอกนั้นส่งที่ความเร็วต่ำ ผลการวิจัยสรุปออกมาทางด้านผลกระทบ ในการรอคอย (delay) จากากรส่งข้อมูลที่ความเร็วแสง เทคนิคการเชื่อมต่อที่โฮสต์ โปรโตคอลควบคุมเครือข่าย และโปรแกรมประยุกต์ที่ต้องการส่งข้อมูลความเร็วในย่านกิกะบิต เช่น รูปภาพทางการแพทย์ การรับ-ส่งสัญญาณวิทยุเพื่อการสื่อสารนอกโลก

    1. โครงการ CASA        มุ่งความสนใจไปยังการพัฒนาโปรแกรมประยุกต์ขั้นสสูงที่ใช้เครื่องซูเปร์คอมพิวเตอร์เป็นตัวประมวลผล และมีประสิทธิภาพการทำงานต่างกันเมื่อใช้เทคนิคการประมลผลต่างกัน เช่น เทคนิคการทำงานแบบเวคเตอร์ในเครื่อง Cray vector supercomputer หรือเทคนิคการประมวลผลแบบขนานในเครื่อง parallel supercomputer ได้แก่ โปรแกรมประยุกต์ประเภทการวิเคราะห์ภาพถ่ายภูมิประเทศจากดาวเทียม การสร้างแบบจำลองสภาพภูมิอากาศเพื่อาการพยากรณ์ และ การตรวจสอบปฏิกิริยาสารเคมี เป็นต้น
    2. โครงการ Nectar เป็นการทดลองการส่งข้อมูลระดับกิกะบิตในเครือข่ายสื่อสารในเขตเมือง(Metropolitan Area Network ) ระหว่างมหาวิทยาลัย CMU และศูนย์ซูเปอร์คอมพิวเตอร์ ที่มหาวิทยาลัย University of Pittsburgh การวิจัยเน้นทางด้านการประมวลผลปฏิกิริยาสารเคมีแบบ flowsheeting การวิจัยระบบดำเนินงาน และโปรแกรมประยุกต์ช่วยการวิจัย เป็นต้น
    3. โครงการ VISTAnet

            เป็นโครงการขนาดเล็กที่เกิดขึ้นในศูนย์วิจัย Research Triangular Park ที่เชื่อมต่อ มหาวิทยาลัย University of North Carolina, มหาวิทยาลัย North Carolina

สรุป

        แม้ว่าการส่งผ่านข้อมูลที่ระดับความเร็ว gigabit จะมีประสิทธิภาพสูง แต่ด้วยความจำกัดของความเข้ากันได้ของออุปกรณ์ในแบบเดียวกันของต่างผู้ผลิต และค่าใช้จ่ายที่สูงทำให้ต้องศึกษาค้นคว้าเพิ่มเติมและปรับปรุงแก้ไขในรายละเอียดต่างๆต่อไป

 

MENU