ฟิสิกส์ราชมงคล

index  62
ทำไมจึงไม่มีรางวัลโนเบลคณิตศาสตร์
ผู้เขียน : ดร.กิตติกร นาคประสิทธิ์
มิสเตอร์อัลเฟรด โนเบล
มีคำถามที่คาใจนักคณิตศาสตร์หลาย ๆ คนว่า เหตุไฉนไยเล่า มิสเตอร์อัลเฟรด โนเบล (Alfred Nobel) ที่ได้สู้อุตส่าห์ตั้งรางวัลโนเบลเพื่อเป็นกำลังใจกับคนในหลากหลายสาขา จึงมองข้ามที่จะให้รางวัลกับคนในสาขาคณิตศาสตร์ไปเสียเล่า?

เหรียญรางวัล พร้อมเงินสดประมาณสี่สิบล้านบาท

 
มีเรื่องเล่าขานปากต่อปากไปทั่วโลก ไม่เว้นแม้แต่ในสถาบันการศึกษาชื่อดังทั้งในยุโรปและอเมริกา เช่นว่า คุณโนเบลนั้น ไม่ถูกกับนักคณิตศาสตร์ท่านหนึ่ง และกลัวว่านายคนนี้จะได้รางวัลโนเบลของเขาไป ก็เลยไม่ตั้งรางวัลในสาขาคณิตศาสตร์ดื้อ ๆ ใครจะทำไม? (ก็เขาเป็นคนตั้งรางวัลเองนี่)

บางแหล่งก็ว่าว่าโนเบลถูกนักคณิตศาสตร์แย่งแฟนหรือภรรยาไป ทำให้โนเบลเกลียดนักคณิตศาสตร์ไปตลอดชีวิต ?!?

ในเรื่องเล่าทั้งสองเรื่องนี้ บางครั้งไม่ได้ระบุว่านักคณิตศาสตร์ตัวต้นเหตุนั้นเป็นใคร แต่บางครั้งคุณ แมกนัส มิตแทก-เลฟเฟลอร์ (Magnus Mittag-Leffler) นักคณิตศาสตร์ชื่อดังชาวสวีเดน (คนชาติเดียวกับคุณโนเบล) ได้รับเกียรติ(?) ให้เป็นตัวร้ายในสองเรื่องนี้ เราจะตรวจสอบเรื่องเล่าทั้งสองเรื่องนี้ว่ามีมูลความจริงเพียงใด

เรื่องเล่า(myth) ที่หนึ่ง : โนเบลถูกแย่งภรรยา?
เมื่อตรวจสอบดูแล้ว ปรากฏว่าคุณโนเบลท่านไม่เคยแต่งงานเลยต่างหาก ดังนั้นท่านจึงไม่มีภรรยาจะให้ใครมาแย่ง ! แล้วเป็นไปได้ไหมว่า คุณโนเบลจะถูกคุณมิตแทก-เลฟเฟลอร์แย่งแฟนไปตั้งแต่ตอนยังหนุ่ม ๆ ก็เลยไม่แต่งงานไปตลอดชีวิตเสียเลย? แต่ช้าก่อน โนเบลได้อพยพจากประเทศสวีเดนเมื่อ พ.ศ.2408 แล้วกลับมาเยี่ยมเยือนประเทศบ้านเกิดเมืองนอนน้อยครั้งมาก ตอนนั้นท่านอายุได้ 32 ปี แต่มิตแทก-เลฟเฟลอร์ เพิ่งจะอายุได้ 19 ปี ความแตกต่างทางอายุตอนนั้น ไม่น่าที่จะทำให้ท่านทั้งสองแย่งผู้หญิงคนเดียวกันได้ ยิ่งกว่านั้น ยังไม่เคยมีหลักฐานใดว่าคุณโนเบลถูกนักคณิตศาสตร์แย่งแฟน ถ้าศาลตัดสิน ก็คงพิจารณาว่าเรื่องเล่านี้ว่าไม่มีมูลความจริงแต่อย่างใด

เรื่องเล่า(myth) ที่สอง : โนเบลไม่ถูกกันกับนักคณิตศาสตร์คนหนึ่ง
กรณีโนเบลกินเกาเหลา(ไม่กินเส้น)กับนักคณิตศาสตร์นั้น ไม่เคยออกจากปากของคุณโนเบลเอง และตัวร้ายตามท้องเรื่องคือคุณมิตแทก-เลฟเฟลอร์นั้น ก็เคยได้รับการมอบหมายให้เจรจาธุรกิจกับคุณโนเบล ถ้าหากทั้งสองคนมีเรื่องกันก่อนหน้านั้น ก็คงจะไม่ได้รับมอบหมายให้ทำการเจรจา หรือถ้ามีเรื่องหลังจากนั้น คนที่น่าจะเจ็บใจก็คงจะเป็นคุณมิตแทก-เลฟเฟลอร์มากกว่า เพราะว่าโนเบลอยู่ในฐานะผู้ให้คุณให้โทษในการเจรจาธุรกิจนี้

 

มิตแทก-เลฟเฟลอร์

 
เรื่องที่น่าจะเป็นจริง
ไม่มีใครบอกได้ว่า เหตุผลแท้จริงที่โนเบลไม่ได้สร้างรางวัลสำหรับคณิตศาสตร์คืออะไร ความลับนี้ได้หายไปพร้อมกับการเสียชีวิตของท่านเสียแล้ว

โนเบลเป็นนักวิทยาศาสตร์และกลายเป็นมหาเศรษฐีตั้งแต่ยังหนุ่มด้วยสิ่งประดิษฐ์คือระเบิดไดนาไมท์ และได้สร้างบริษัทและห้องปฏิบัติการทางวิทยาศาสตร์ไปในประเทศมากกว่ายี่สิบประเทศ

สิ่งที่รบกวนจิตใจท่านตลอดมาคือการที่ไดนาไมท์ได้กลายมาเป็นเครื่องมือประหัตประหารมนุษย์ด้วยกันเอง แทนที่จะเป็นเครื่องมือใช้ระเบิดอุโมงค์ หรือช่วยในการค้นหาแร่ธาตุดังที่ท่านตั้งใจไว้แต่แรก

 

มิสเตอร์อัลเฟรด โนเบล

 
ท่านได้ประกาศจัดตั้งรางวัลโนเบลด้วยทุนส่วนตัวของท่านเมื่ออายุ 63 ปี ก่อนที่จะเสียชิวิตในปีต่อมา รางวัลนี้จัดตั้งเพื่อเป็นเกียรติกับผู้เกี่ยวข้องกับ ‘สิ่งประดิษฐ์หรือการค้นพบที่เป็นประโยชน์กับมวลมนุษยชาติ’ แรกเริ่มเดิมทีรางวัลนี้มีห้าสาขา คือในสาขาฟิสิกส์, เคมี, การแพทย์, วรรณกรรม, และสันติภาพ ต่อมามีการเพิ่มเศรษฐศาสตร์เป็นสาขาที่หกโดยธนาคารแห่งสวีเดน (Bank of Sweden) เป็นผู้ออกทุน

ถ้าจะเดากันว่าโนเบลซึ่งมีใจเป็นกุศลที่จะอุทิศเงินของท่านเพื่อเป็นประโยชน์กับมนุษย์ทั้งโลก จะมีอคติกับคณิตศาสตร์ด้วยเหตุส่วนตัวเช่นนี้ เราอาจจะดูถูกคุณโนเบลเกินไป

เหตุผลที่น่าเชื่อถือที่สุดคือ โนเบลไม่เคยมีความคิดอยู่ในสมองเลยว่าท่านจะให้รางวัลในสาขาคณิตศาสตร์ โนเบลเป็นนักเคมีและนักฟิสิกส์จึงเป็นธรรมชาติของท่านที่จะมองเห็นความสำคัญของศาสตร์ทั้งสองนี้ ในขณะเดียวกันโนเบลเป็นนักอ่านตัวยงและเป็นผู้รณรงค์เพื่อสันติภาพคนหนึ่งจึงตั้งรางวัลในสาขาวรรณกรรมและสาขาสันติภาพ สำหรับรางวัลทางการแพทย์นั้น เป็นเรื่องง่ายที่เราจะเห็นว่าสาขานี้เป็นประโยชน์กับมนุษย์เพียงใด

สำหรับคณิตศาสตร์ซึ่งเป็นศาสตร์พื้นฐานของศาสตร์ทั้งหลายนั้น ท่านอาจจะเห็นความสำคัญอยู่ แต่ไม่เห็นว่าการค้นพบใหม่ ๆ ทางคณิตศาสตร์จะมีผลกระทบโดยตรงอย่างฉับพลันต่อมนุษย์ได้อย่างไร จึงได้ละเว้นรางวัลในสาขานี้เสีย (จริงหรือไม่จริงอย่างไร นักคณิตศาสตร์คงจะต้องช่วยออกแรงกันทำให้คนเห็นความสำคัญของสาขาของเราให้ได้นะครับ)

อีกเหตุผลหนึ่งที่เป็นไปได้ก็คือในขณะนั้น สวีเดนก็มีรางวัลสาขาคณิตศาสตร์จากพระมหากษัตริย์ของสวีเดนเป็นผู้ทรงพระราชทานอยู่แล้ว โนเบลอาจคิดว่าเป็นเรื่องไม่สมควรที่จะมีรางวัลใหญ่ทางคณิตศาสตร์ซ้อนทับกับรางวัลของพระองค์

อย่างไรก็ตามยังมีนักคณิตศาสตร์หลายคนที่ได้รับรางวัลโนเบล เพราะผลงานได้รับการประยุกต์ในสาขาอื่นได้ เช่น จอห์น แนช เป็นต้น

 
 ที่มาของข้อมูล : วิชาการ.คอม
หน้าที่ 1 - แนะนำ
 
Google Earth นับเป็นอีกรูปแบบหนึ่งของ Google ในการสร้างระบบติดต่อกับผู้ใช้งาน (user interfacing) เพื่ออำนวยความสะดวกในการค้นหาข้อมูลและทำให้การแสดงผลข้อมูลมีประสิทธิภาพมากยิ่งขึ้น ในครั้งนี้ Google ได้นำเอาภาพถ่ายทางอากาศและภาพถ่ายจากดาวเทียมมาผสมผสานกับเทคโนโลยี streaming และทำการเชื่อมโยงข้อมูลจากฐานข้อมูลของ Google เองเพื่อนำเราไปยังจุดต่าง ๆ ที่ต้องการบนแผนที่โลกดิจิตอล

แผนที่นี้เกิดจากการสะสมภาพถ่ายจากหลาย ๆ แหล่งข้อมูล จากดาวเทียมหลายดวง เพียงแต่นำมาประติดประต่อกันเสมือนกับว่าเป็นผืนเดียวกัน แต่ละจุดจะมีความละเอียดของภาพถ่ายไม่เท่ากัน แต่ด้วยความสามารถในการประมวลผลภาพถ่ายทำให้เราเสมือนกับว่าเป็นพื้นเดียวกัน จากนั้นก็นำเอาข้อมูลอื่น ๆ มาซ้อนทับภาพถ่ายเหล่านี้อีกชั้นหนึ่ง ซึ่งแต่ละชั้น (layer) ก็จะแสดงรายละเอียดต่างเช่น ที่ตั้งโรงพยาบาล สถานีตำรวจ สนามบิน และชั้นของข้อมูลอื่น ๆ อีกมากมาย ทั้งแบบที่ Google จัดเตรียมไว้ให้แล้ว หรือ มีบริษัทอื่น ๆ มาในบริการชั้นข้อมูลเหล่านี้ รวมไปถึงชั้นข้อมูลที่เรากำหนดขึ้นเอง ประโยชน์ที่ได้รับถือว่ามากมายมหาศาล บริการนี้ช่วยให้เราศึกษาข้อมูลก่อนเดินทางได้เป็นอย่างดี ทำให้เราสามารถค้นหาที่ตั้งของโรงแรมที่เราจะเดินทางไปพัก เส้นทางต่าง ๆ ของเมืองที่เราจะเดินทางไป รวมถึงแหล่งข้อมูลอื่น ๆ เช่น สภาพดินฟ้าอากาศ แต่ที่สำคัญที่สุดคิดว่าน่าจะเป็นการนำเอา Google Earth มาเป็นสื่อในการเรียนรู้ ในทุก ๆ ระดับการศึกษา รวมไปถึงการเรียนรู้ด้วยตนเอง เป็นครั้งแรก ที่ทำให้เราเข้าถึงภาพถ่ายดาวเทียมและภาพถ่ายทางอากาศได้อย่างสะดวกและรวดเร็ว คิดว่าเครื่องมือนี้จะทำให้เราเข้าใจโลกของเราได้มากขึ้น

เครื่องมือที่อยู่ภายใต้ความสำเร็จนี้คือ XML (Extensible Markup Language) ซึ่งมีการกำหนดคุณสมบัติพิเศษขึ้นมาและเรียกว่า KML (Keyhole Markup Language) Google ใช้ KML นี้ในการสร้างชั้นข้อมูลต่าง ๆ การแสดงข้อมูลทั้ง จุด ลายเส้น หรือรูปหลายเหลี่ยมต่าง ๆ ล้วนสร้างมาจาก KML ทั้งสิ้น เวอร์ชันปัจจุบันเรียกว่า KML 2.0 ส่วนรูปแบบที่จัดเก็บไว้จะเป็นรูปแบบที่ประหยัดพื้นที่เรียกว่า KMZ ซึ่งกับคือ zip format ของ KML นั่นเอง

สำหรับรูปแบบการทำงานของ Google Earth นั้นก็จะเป็นการทำงานแบบ client-server โปรแกรมส่วนที่พวกเราใช้งานจะเรียกว่า Google Earth client ซึ่ง Google ให้เรามาใช้งานฟรี เพื่อดูข้อมูลต่าง ๆ ภายใต้ข้อจำกัดเกี่ยวกับรายละเอียดของภาพ แต่จะว่าไปแล้วก็ไม่ได้ฟรีจริง ๆ นะ เพราะเขาก็จะได้ประโยชน์จากพวกเราในแง่ข้อมูลต่าง ๆ ที่พวกเราเข้าไปค้นหา และสะสมความรู้ที่ได้จากการค้นหาของพวกเราไว้ใช้งานต่อไป

นอกจาก Google จะให้บริการแบบไม่คิดค่าใช้บริการแล้ว ยังมีการให้บริการในรูปแบบอื่น ๆ อีกด้วย ซึ่งแต่ละแบบก็จะมีความสามารถที่แตกต่างกัน เช่น สามารถนำข้อมูลจาก GPS receiver มาประกอบข้อมูลของ Google Earth ได้ รวมถึงการให้บริการสร้าง server ของตนเองขึ้นมาโดยการนำข้อมูลมารวมกับแหล่งข้อมูล GIS ของเราเองได้อีกด้วย
 
หน้าที่ 2 - การนำไปให้บริการ
 
การให้บริการนี้ทำให้เกิดการให้บริการอื่น ๆ ตามมาอีกมากมาย เช่น ระบบที่เกี่ยวข้องกับการประกันภัย การขนส่ง การออกแบบสถาปัตยกรรม รวมไปถึงการทหารและการป้องกันประเทศอีกด้วย


 

ปัจจุบันมีการพัฒนาการให้บริการที่ผสมผสานกับข้อมูลของ Google Earth หลายอย่างเช่น ในธุรกิจอสังหารินทรัพย์ มีการแสดงภาพการพัฒนาที่ดิน ทำให้ผู้เกี่ยวข้อง ตั้งแต่แหล่งเงินของโครงการ ไปจนถึงผู้ซื้อ สามารถมองเห็นรูปแบบของโครงการได้อย่างชัดเจน ทำให้การประเมินศักยภาพของโครงการเป็นไปด้วยความสะดวกและชัดเจน การวางแผนการจัดการเกี่ยวกับผู้อยู่อาศัยก็สามารถ เห็นภาพได้อย่างชัดเจน รวมถึงจะเอื้อประโยชน์ต่อรุกิจอื่น ๆ อีกมากมาย เช่น ธุรกิจเกี่ยวกับที่พักอาศัย บ้านเช่าต่าง ๆ


 

Google Earth ยังช่วยให้ธุรกิจงานทางด้านสถาปัตยกรรมและการก่อสร้างแสดงรูปแบบของโครงการในรูปแบบของ โมเดลของโครงการที่จะสร้างขึ้นมาว่า มีลักษณะเป็นอย่างไรเมื่อการก่อสร้างแล้วเสร็จ
หน้าที่ 3 - คู่มือการใช้งาน (1)
 
ขั้นตอนการใช้งานโปรแกรม Google Earth ดังนี้

1. เริ่มต้นโดยการ search คำว่า “Google Earth” จากเว็บไซต์ www.google.com

จากนั้น ทำการ Download program และทำการ Install program

2. เมื่อทำการ Install program เรียบร้อยแล้ว เราจะสามารถเห็นหน้าจอการใช้งานดังรูป ด้านล่างนี้


 

ส่วนที่ 1 : การค้นหาตำแหน่งสถานที่ตั้ง (Search)

เราสามารถทำการ Search ข้อมูลสถานที่ต้องการได้ โดยการกรอกข้อมูลลงในช่องกรอกรายละเอียด

จากนั้นทำการกดปุ่ม Search โดยแบ่งเป็นประเภทของการค้นหาข้อมูลได้ 3 ลักษณะคือ

- Fly to : ค้นหาแบบระบุชื่อสถานที่หรือกำหนดพิกัด

- Local search : ค้นหาแบบกำหนดเงื่อนไขว่าต้องการหาอะไรที่ไหน (เช่นหาร้าน Pizza ที่เมือง San Francisco, CA)

- Directions : ค้นหาแบบกำหนดเงื่อนไขว่าต้องการเดินทางจากเมืองต้นทางไปยังเมืองปลายทาง

(โปรแกรมจะบอกเส้นทางว่าจะต้องเลี้ยวทิศไหนระยะทางเท่าไหร่บนถนนชื่ออะไร)


 

ภายหลังจากกดปุ่ม Search คำว่า bangkok (แบบ Fly to) โปรแกรมจะแสดงภาพของสิ่งที่เราค้นหา
หน้าที่ 4 - คู่มือการใ้ช้งาน (2)
 
ส่วนที่ 2 : การเลือกสถานที่สำคัญจากทั่วโลก (Places)

เราสามารถทำการค้นหาสถานที่สำคัญที่ต้องการจากทั่วโลกได้ โดยการคลิกที่ชื่อสถานที่นั้น

(สามารถเพิ่มเข้าไปได้เองภายหลัง) และโปรแกรมจะแสดงภาพของสถานที่ดังกล่าวเช่นเดียวกับใช้คำสั่ง

Fly to ใน Search



*ในภาพคือ Olympic, Sydney NSW, Australia
 
ส่วนที่ 3 : แสดงตำแหน่งที่ตั้งจากข้อความสำคัญ (Layer)

เราสามารถทำการ เลือกให้โปรแกรมแสดงข้อมูลที่ต้องการลงบนแผนภาพได้ จากการเลือกหมวดของสิ่งที่ต้องการค้นหา เช่น Golf, School, Hospital, etc. เมื่อทำการเลือกหมวดที่ต้องการแสดงแล้ว หลังจากนั้นโปรแกรมจะทำการแสดงตำแหน่งของข้อมูลที่เราเลือกลงบนแผนภาพ


 

ให้แผนภาพแสดงขอบเขต (borders) ของประเทศต่าง
หน้าที่ 5 - คู่มือการใช้ (3) (การดู 3 มิติ)
 
ส่วนที่ 4 : แสดงปุ่มการควบคุมแผนภาพ (Navigation Panel)

เราสามารถทำการปรับการแสดงผลบนแผนภาพโดยการกดปุ่มต่างบน Navigation Panel

- Zoom in, Zoom out : ขยายและย่อขนาดภาพ

- Rotate left, Rotate right : หมุนภาพ

- ปุ่มลูกศร : สำหรับเลื่อนแผนภาพไปยังทิศที่ต้องการ

- Tilt up, Tilt down : เลื่อนองศาของการมองจากแนวราบถึงแนวดิ่ง (0-90 °)



ภาพภูเขาไฟฟูจิเมื่อมองในแนวดิ่ง


 

ภายหลังจากปรับมุมมองและขยายภาพ
กูเกิ้ล เอิร์ธ (Google Earth) ท่องโลกด้วยปลายนิ้ว
 
ผู้เขียน : VMaster
เนื้อหาย่อ : แนะนำกูเกิ้ลเอิร์ธ โปรแกรมท่องโลกในรูปแบบ 3 มิติ พร้อมทั้ง การนำไปให้บริการ และ คู่มือการใช้งานเบื้องต้น
จุดกำเนิดของ กูเกิ้ล (The birth of Google)
 
ผู้เขียน : ผศ.ดร.บุญญฤทธิ์ อุยยานนวาระ
เนื้อหาย่อ : และแล้วจุดเริ่มต้นของไอเดียเล็กๆ ก็กลายเป็นไอเดียที่เปลี่ยนโลกอินเตอร์เน็ตทั้งใบ จุดกำเนิดของยักษ์ใหญ่ในวงการซอฟท์แวร์ ก็เริ่มขึ้นที่นี่ …
หน้าที่ 1 - เซอร์กี บริน (Sergey Brin) และ ลาร์รี่ เพจ (Larry Page)
 

**หมายเหตุ (1บทความนี้เป็นแบบ XML Live-Feeding Article ทดลองใช้เป็นครั้งแรกใน วิชาการ.คอม บทความจะออนไลน์ทันที และผู้เขียนบทความสามารถปรับแก้บทความ ได้ตลอดเวลา จนกว่าบทความจะสมบูรณ์ 2บทความนี้เขียนเพื่อวิชาการ.คอม โดยเฉพาะ (VCharkarn.com's exclusive article) )

ผศ.ดร.บุญญฤทธิ์ อุยยานนวาระ
สถาบันเทคโนโลยีนานาชาติ สิรินธร
มหาวิทยาลัย ธรรมศาสตร์
นักเขียนประจำ วิชาการ.คอม

แหม เห็นแฟนๆเรียกร้องกันมามากมาย ก็เริ่มทนไม่ได้ครับ ต้องหาเวลาที่ว่างที่สุดของวันที่ไม่ค่อยว่าง ปั่นต้นฉบับเรื่องจุดกำเนิดของ Google ออกมาซักหน่อย เข้าใจว่าหลายคนคงเรียกร้องเพราะจะเอาไปทำรายงาน (ผมแนะนำให้ cut-paste ไปเลย – พูดเล่นครับ – เพราะถ้าทำจริงขอให้ได้ 0 และ คงได้ 0 แน่นอนครับ เพราะภาษาที่ผมใช้เขียนต่อไปนี้เป็นภาษาพูดครับ ไม่ใช่ภาษารายงาน อ่านแล้วก็เอาไปเรียบเรียงใหม่เป็นรายงานเองนะจ๊ะหนูๆ)

จุดเริ่มต้นของเรื่องนี้อยู่ที่ มหาวิทยาลัยสแตนฟอร์ด (Stanford University) อีกหนึ่งสุดยอดแห่งมหาวิทยาลัยด้านไอที (จริงๆแล้ว Stanford ก็จัดว่าเป็นอันดับต้นๆของโลกในสาขาอื่นๆอีกมากมาย ด้วยเช่นกัน) มหาวิทยาลัยแห่งนี้ นอกจากจะเป็นต้นกำเนิดของสุดยอด 2 ไอเดียออนไลน์ระดับโลกอย่าง Yahoo! และ Google แล้ว มหาวิทยาลัยแห่งนี้เป็นต้นกำเนิดของคอมพิวเตอร์ที่เราใช้ๆกันอยู่ด้วยซ้ำไป ที่นี่เป็นที่ที่ คุณ John von Neuman (จอห์น วอน นูแมน) คิดและประิดิษฐ์คอมพิวเตอร์ที่มีสถาปัตยกรรมที่เหมือนกับที่เราใช้อยู่นี่แหล่ะ เป็นคนแรกของโลก (แม้จะไม่ใช่คอมพิวเตอร์เครื่องแรกของโลกก็ตาม – สับสนมั้ยครับ – คืออย่างงี้ครับ คอมพิวเตอร์เครื่องแรกของโลกชื่อว่า ENIAC ซึ่งเป็นเครื่องที่มีความซับซ้อนสูง ต่อมาคุณ von Neuman ซึ่งก็ช่วยงานในการสร้างคอมพิวเตอร์ ENIAC อยู่ด้วย แกเสนอว่า เราน่าจะแยกส่วนของคอมพิวเตอร์ออกเป็น หน่วยประมวลผล หน่วยความจำ หน่วยรับเข้าและส่งข้อมูล ซึ่งเป็นสถาปัตยกรรมที่แตกต่างจากคอมพิวเตอร์เครื่องแรก และเป็นสถาปัตยกรรมที่เรายังใช้มาอยู่จนในปัจจุบัน หลายสถาบันก็เลยยกย่องให้ von Neuman เป็นบิดาของคอมพิวเตอร์เลยทีเดียว) แหม! พูดถึงมหาวิทยาลัยสแตนฟอร์ดซะยืดยาวเลย พักไว้แค่นี้ก่อน เดี๋ยวหาใครที่กำลังเรียนแถวนั้นมาบรรยายสรรพคุณของ Stanford ต่อ ตอนนี้เข้าเรื่องกูเกิ้ลดีกว่าครับ เดี๋ยวกระดาษจะหมดซะก่อน
 


Sergey Brin (เซอร์จีย์ บริน)

เรื่ิิองก็เริ่มตอนปิดเทอมภาคฤดูร้อนปี 1995 ที่มหาวิทยาลัยแห่งนี้แหละครับ ตอนนั้น Sergey Brin (เซอร์กี บริน) 1 ใน 2 ของผู้ก่อตั้ง กูเกิ้ล เป็นแค่นักเรียนปริญญาเอก ที่กำลังจะขึ้นปี 2 ของภาควิชา วิทยาศาสตร์คอมพิวเตอร์ (Computer Science) ธรรมดาๆ คนหนึ่ง ที่อาสาเข้ามาเป็นนักศึกษาช่วยงาน Open House

โดยปกติทุกๆปีในช่วงก่อนเปิดเทอมนี้ มหาวิทยาลัยต่างๆเค้าจะมีการเปิดบ้านต้อนรับผู้มาเยือน เราเรียกว่า Open House (ที่เมืองไทยก็เห็นมีบ้างแล้วหลายมหาวิทยาลัย) คือว่าใครที่สนใจที่จะเรียนในมหาิวิทยาลัยไหน คณะไหน ก็จะไปงาน Open House ของที่นั่น ที่จะมีคนมาคอยพาทัวร์ และแนะนำสถานที่ แนะนำคณะ แนะนำ Lab แนะนำครูอาจารย์ เป็นปกติเหมือนทุกๆปี แต่ปีนี้เองพระเอกคนที่สองของเรา คือคุณ Larry Page (ลาร์รี่ เพจ) ก็โผล่มาในงาน Open House ในปีนี้ หลังจากได้ดีกรี วิศวกรรมศาสตร์บัณฑิต จากมหาวิทยาลัยมิชิแกน (Michigan University) มาหยกๆ
 


Larry Page (ลาร์รี่ เพจ)

ทั้งสองเจอกันเพราะ Larry Page ไปอยู่ในกลุ่มทัวร์ ที่มี Sergey Brin เป็นหัวหน้ากลุ่มทัวร์พอดี

ดูท่าว่างานนี้ไม่ใช่รักแรกพบครับ เพราะระหว่างทางที่เดินทัวร์มหาวิทยาลัย และเมือง San Francisco อยู่ ทั้งสองคนนี้ก็มีเรื่องให้ถกเถียงกันได้ตลอดเวลา โดยเฉพาะเรื่องของการจัดผังเมืองของ San Francisco (??!!??)

Page เล่าให้ฟังว่าตอนนั้นเค้าจำได้ว่า Sergey Brin เป็นคนที่มีความคิดที่ค่อนข้างจะติดยึด เป็นคนที่ไม่ค่อยโสภาที่น่าจะอยู่ใกล้เท่าไหร่ ถ้าคิดว่าตัวเองถูกละก็จะเีถียงหัวชนฝา ซึ่งบังเอิญว่า ตัวเอง (Page) ก็เป็นคนแบบนั้น ส่วน Sergey ก็บอกว่าจริงๆแล้ว Larry ก็ออกจะแปลกๆอยู่เหมือนกันแหละ เถียงหัวชนฝา ไม่ค่อยยอมใคร (เอากันเข้าไป มิน่าหล่ะ เถียงกันได้ทั้งวัน)

เอาเป็นว่า ทั้งคู่ถกเถียงกันเรื่องต่างๆทั้งวันที่เดินทัวร์ แม้จะไม่ลงรอยด้วยดี แต่ทั้งคู่ก็จำกันได้ดีก่อนจะแยกจากกันในตอนเย็น (แหม! พล็อตยังกับหนังไทยเลยครับ พระเอกกับนางเอกเจอกันครั้งแรกจะต้องมีทะเลาะตบตี ต่างคนต่างบอกว่าเกลียด แต่ในใจคิดถึงอยู่)

อีก 2-3 เดือนถัดมา มหาวิทยาลัยก็เปิดเทอมครับ Page ก็เข้ามารายงานตัว และเลือก Prof. Terry Winograd ผู้เชี่ยวชาญด้านการโต้ตอบระหว่างคอมพิวเตอร์และมนุษย์ เป็นอาจารย์ที่ปรึกษา และก็เริ่มมองหาหัวข้อวิทยานิพนธ์

พ่อของ Larry Page (ขณะนั้นเป็นอาจารย์ด้าน Computer Science อยู่ที่มหาวิทยาลัยมิชิแกน) บอกว่า Thesis ปริญญาเอก จะเป็นเหมือนกรอบ ที่จะคอยกำหนดอนาคต ด้านวิชาการของเราไปทั้งชีวิต ก่อนจะตัดสินใจเลือกทำให้ไตร่ตรองให้ดี ทำให้ Page ใช้เวลาอยู่นานในการเลือกหัวข้อทำวิทยานิพนธ์ หลังจากลองนึกๆดูสิบกว่าเรื่อง สุดท้ายก็มาลงที่เรื่อง World Wide Web นี่เอง

และแล้วจุดเริ่มต้นของไอเดียเล็กๆ ก็กลายเป็นไอเดียที่เปลี่ยนโลกอินเตอร์เน็ตทั้งใบ จุดกำเนิดของยักษ์ใหญ่ในวงการซอฟท์แวร์อีกตน ก็เริ่มขึ้นที่นี่ …
 

หน้าที่ 2 - อินเตอร์เน็ต ทฤษฎีกราฟ และ BackRub Project
 

**หมายเหตุ (1บทความนี้เป็นแบบ XML Live-Feeding Article ทดลองใช้เป็นครั้งแรกใน วิชาการ.คอม บทความจะออนไลน์ทันที และผู้เขียนบทความสามารถปรับแก้บทความ ได้ตลอดเวลา จนกว่าบทความจะสมบูรณ์ 2บทความนี้เขียนเพื่อวิชาการ.คอม โดยเฉพาะ (VCharkarn.com's exclusive article) )

ผศ.ดร.บุญญฤทธิ์ อุยยานนวาระ
สถาบันเทคโนโลยีนานาชาติ สิรินธร
มหาวิทยาลัย ธรรมศาสตร์
นักเขียนประจำ วิชาการ.คอม

Page เริ่มหัวข้อวิจัยเกี่ยวกับเว็บก็จริง แต่ไม่ได้เริ่มมองหาวิธีที่จะค้นหาข้อมูลบนเว็บ แต่สิ่งที่เค้ามองเห็นกลับเป็น มุมมองทางด้านคณิตศาสตร์ของเว็บไซท์มากกว่า

Page มองแบบนี้ครับ ถ้าหากมองว่า 1 เซอร์ฟเวอร์ หรือ 1 เว็บไซท์ เช่น วิชาการ.คอม หรือ 1 คอมพิวเตอร์ เป็นเพียง จุด (Node, Vertrix) จุดหนึ่งบนกราฟ (Graph) และ ลิ๊งค์ (link) ที่เชื่อมไปยังเว็บไซท์อื่นๆ เหมือนกับเป็นทางเชื่อมต่อกัน หรือ ขอบ(Edge) ระ่หว่างจุดเหล่านั้น หรือ พูดง่ายๆว่า Page มองเห็น อินเตอร์เน็ตเป็นกราฟ นั่นเอง (แฮ่ะๆ แบบนี้เรียกว่ามันอยู่ในสัญชาติญาณ มองอินเตอร์เน็ตเป็นกราฟ ทำได้ไงเนี่ย)

ซึ่งบ้านเรา นิสิต นักศึกษาระดับปริญญาตรี ด้านทางสายวิทย์ มักจะได้เรียนเรื่อง กราฟ ประเภทนี้ ในเรื่อง ทฤษฏีกราฟ (Graph Theory) แถวๆปีต้นๆ (ซึ่งน้องๆตัวเล็กๆอาจสับสนนิดนึง เพราะกราฟที่คุ้นเคยอาจจะหมายถึง กราฟที่เป็นตัวแทนของข้อมูล เช่น กราฟแท่ง กราฟเชิงเส้น ซะมากกว่า) ถ้าไม่ใช่ในวิชาคณิตศาสตร์ ก็จะเป็นวิชา Algorithm โดยเฉพาะพวกที่เรียน วิทยาการคอมพิวเตอร์ ก็น่าจะผ่านหูผ่านตากันมาแล้วทุกคน (ถ้าไม่ใส่ไหคืนอาจารย์ไปหมดแล้วซะก่อน) (มีอาจารย์และนักคณิตศาสตร์ ในเมืองไทยหลายคน ที่เชี่ยวชาญเรื่อง Graph Theory เช่น ดร.จริยา อุ่ยยะเสถียร ภาควิชาคณิตศาสตร์ จุฬาลงกรณ์มหาวิทยาลัย ที่จบปริญญาเอกเรื่องนี้มาโดยเฉพาะ เดี๋ยวจะลองเกี้ยวมาช่วยเขียน เรื่อง Graph Theory อีกซักบทความ)


ตัวอย่างกราฟ สมมติให้จุดแต่ละจุด แทนคอมพิวเตอร์แต่ละเครื่อง และเส้นเชื่อมแทนลิงค์ที่เชื่อมหากัน

แต่คราวนี้ลองจินตนาการดูนะครับ ว่าแน่นอนเว็บไซท์หนึ่งเว็บ ก็ลิงค์ไปยังหลายร้อย หลายพันเว็บ และมีเว็บไซท์หลายๆเว็บ ที่ลิงค์มายังเว็บไซท์หนึ่งๆ และปัจจุบันเรามีกันเป็น พันๆล้านเว็บ เพราะฉนั้น กราฟ ที่เราใช้แทน อินเตอร์เน็ต ก็จะเป็นกราฟขนาดมหึมา และมีความซับซ้อน โยงกันไปโยงกันมาอย่างยุ่งเหยิง

ซึ่งตรงนี้แหละที่ Page มองแล้วเห็นว่ามันช่างน่าตื่นเต้น น่าสนใจ น่าติดตาม เสียเหลือเกิน Page เคยบอกว่า Internet คือ กราฟที่ใหญ่ที่สุดที่มนุษย์เคยสร้างขึ้น และมันก็ยังจะเติบโต ใหญ่ขึ้น ใหญ่ขึ้น ทุกๆวัน ด้วยอัตราเร็วในการเติบโตสูงมาก โอ! มันช่างเป็นเรื่องที่น่าสนใจทำวิทยานิพนธ์เหลือเกิน (ถ้าเป็นคนสามัญชนธรรมดา ก็อาจจะบอกว่า โอ! มันซับซ้อนเหลือเกิน ไม่มีทางทำได้หรอก หนีดีกว่า) ซึ่ง Prof. Winograd อาจารย์ที่ปรึกษาของเค้าก็เห็นด้วย และเห็นว่า น่าจะศึกษาเรื่องของโครงสร้างของกราฟของเว็บเป็นการเริ่มต้นวิทยานิพนธ์

Page ทำการศึกษาด้วยตัวเองอยู่ไม่นาน เค้าก็เจอปัญหาแรกเข้าให้...

โอเคตรงนี้เราเข้าเรื่อง graph theory กันนิดนึง (เอาเป็นว่าผมพยายามวงเล็บภาษาอังกฤษของคำไทยไว้ด้วย จะได้ช่วยให้คนทีคุ้นเคยกับคำอังกฤษในวิชานี้แล้ว ได้เห็นภาพง่ายขึ้นนะ) คืออย่างนี้ ในกราฟปกติ ขอบของกราฟ (Edge) จะเป็นตัวบ่งถึงความสัมพันธ์กันระหว่าง จุด (Vertrix) ซึ่งโดยปกติแล้ว เราจะรู้และนับจำนวนได้ว่า จากจุดจุดหนึ่ง มีขอบ หรือ เส้นลากไปยังจุดอื่นๆ อีกกี่จุด และมีกี่จุดที่ลากมาหาตัวเอง

แต่หน้าเว็บเพจกลับไม่เป็นแบบนั้นซะทีเดียว เพราะ ที่หน้าเว็บเพจหนึ่งๆ (เราสมมติว่าเว็บ 1 หน้าเป็น 1 vertrix ในกราฟก็แล้วกัน) เรารู้ครับว่าจากจุดที่เราอยู่ปัจจุบัน มันลิงค์ไปยังหน้าไหนบ้าง คือ เรารู้ว่ามันมี ขอบที่วิ่งออกไป (Out Degree) จากตัวเองกี่จุด และไปที่ไหนบ้าง แต่ที่เราไม่รู้นี่คือว่า มีเว็บเพจใดบ้าง กี่หน้า ที่ลิงค์มาหาหน้าที่เราสนใจ ลองนึกตามแบบนี้นะครับ ว่าหน้าเว็บที่คุณอ่านอยู่ตอนนี้เนี่ย ลิงค์มาจากหน้าไหน URL อะไร มีข้อมูลตรงไหนบอกมั้ยครับ ถ้าคุณไม่กด Back

ซึ่งตรงนี้หล่ะยาก เพราะอินเตอร์เน็ตไม่ได้ให้ข้อมูลนี้มา ซึ่งตรงนี้เอง Page คิดว่า มันน่าจะดีถ้าหากว่าเรารู้ (หรืออย่างน้อย มีวิธีการที่จะทำให้รู้) ว่าใครลิงค์หาใครบ้าง และ Page ก็เลือกเอาปัญหานี้มาทำเป็นวิทยานิพนธ์ปริญญาเอก และตั้งชื่อเล่นโปรเจ็คของเค้าว่า "BackRub Project" (โครงการ "ถูหลัง" - แหม! ผมแปลตรงตัวไปหน่อยหรือปล่าวเนี่ย - สงสัยว่า Page คงอยากรู้ว่า ตอนที่อาบน้ำนี่ใครถูหลังให้เค้าบ้าง - เอ้า ! ว่าไปโน่น)


back rub line - ถ้ามองไปข้างหน้าอย่างเดียว เราไม่มีทางรู้ว่าใครกำลังถูหลังเราอยู่

จาก BackRub Project ที่ค่อยๆ เติบโตมา ด้วยน้ำมือของนักศึกษา 2 คน ที่ใช้ห้องนอนที่หอทำเป็น ห้อง Server และ ห้องเขียนโปรแกรม ได้กลายเป็น Google Project โปรแกรม Search Engine ขนาดจิ๋ว ที่ดูดทรัพยากร Network ของมหาวิทยาลัย สแตนฟอร์ด ที่ได้ชื่อว่า Network ที่เร็วเป็นอันดับต้นๆของโลก ได้อย่างไร ติดตามหน้า 3 จ้า...

หน้าที่ 3 - จอมไต่เว็บ Crawler และ PageRank
 

**หมายเหตุ (1บทความนี้เป็นแบบ XML Live-Feeding Article ทดลองใช้เป็นครั้งแรกใน วิชาการ.คอม บทความจะออนไลน์ทันที และผู้เขียนบทความสามารถปรับแก้บทความ ได้ตลอดเวลา จนกว่าบทความจะสมบูรณ์ 2บทความนี้เขียนเพื่อวิชาการ.คอม โดยเฉพาะ (VCharkarn.com's exclusive article) )

ผศ.ดร.บุญญฤทธิ์ อุยยานนวาระ
สถาบันเทคโนโลยีนานาชาติ สิรินธร
มหาวิทยาลัย ธรรมศาสตร์
นักเขียนประจำ วิชาการ.คอม

Page เริ่มที่จะคิดว่า เราจะทำไงถึงจะรู้ว่า ลิงค์ใดบ้างที่ลิงค์มาัยังเว็บหนึ่งๆ หลังจากที่ศึกษาเกี่ยวกับเรื่องนี้ได้ไม่นาน(ไม่กี่เดือน) Page ก็พบว่า จริงๆแล้ว เรื่องของการลิงค์ไปลิงค์มาของเอกสารนี่ มีกันมานานแล้วในวงการวิชาการ

ก็คือเรื่องของ ผลงานวิชาการ นั่นเอง คือโดยปกติแล้ว หากนักวิชาการท่านใด คิดทฤษฎีอะไรออกมาได้ใหม่ๆ หรือค้นพบอะไรใหม่ หรือต้องการจะแก้ไขสิ่งที่มีอยู่แล้ว ก็จะทำการตีพิมพ์ผลงานของตนเองในวารสารวิชาการ (Journal) โดยจะต้องอ้างอิงถึงที่มาของความรู้ หรือ ผลงานที่มีมาก่อนของคนอื่น หรือที่ใกล้เคียง ก็เพื่อให้องค์ความรู้ใหม่ที่ตีพิมพ์ มีรากฐานจากองค์ความรู้ ที่ได้รับการพิสูจน์แล้ว (ตีพิมพ์แล้ว) นั่นเอง ดังนั้น ผลงานวิชาการ ไหนที่ได้รับการอ้างถึง (Citation) บ่อยๆ จาก นักวิชาการคนอื่นๆ แสดงว่า ผลงานวิชาการชิ้นนั้นได้รับการยอมรับอย่างจริง ในวงการวิชาการเรามีตัวชี้วัดกันเลยว่า ผลงานหนึ่งๆ มีการถูกอ้างถึงมากน้อยเพียงใด เราเรียกดัชนีตัวนี้ว่า Citation index ซึ่งการอ้างอิงด้านวิชาการถือเป็นเรื่องใหญ่ ใหญ่ขนาดไหนครับ ก็ใหญ่พอที่จะมีิวิชาที่ว่าด้วยเรื่องนี้โดยเฉพาะเลย คือวิชา bibliometrics (ผมเองก็ไม่เคยเรียนครับ แต่เข้าใจว่าน่าจะเป็นทางกลุ่มนักศึกษา วารสาร หรือ บรรณารักษ์ หรือ สารสนเทศ - เดี๋ยวจะค้นมาให้ว่าที่ไหนสอนบ้างในเมืองไทย)

 

• Kiattisin Kanjanawanishkul and Bunyarit Uyyanonvara, Novel fast color reduction algorithm for time-constrained applications, Journal of Visual Communication and Image Representation, Volume 16, Issue 3, June 2005, pp. 311-332 (2005)

• Y. Sirisathitkula, S. Auwatanamongkola and Bunyarit Uyyanonvara, Color Image Quantization using Adjacent Colors’ Line Segments. Pattern Recognition Letters, Vol 25/9 pp 1025-1043. (2004)

• Lloyd Bender, David J. Spalton, Bunyarit Uyyanonvara, James Boyce, Catherine Heatley, Romina Jose and Jaheed Khan, POCOman: New system for quantifying posterior capsule opacification, Journal of Cataract & Refractive Surgery, Volume 30, Issue 10, October 2004, Pages 2058-2063 (2004)

ตัวอย่างของการอ้างอิงทางวิชาการ

 


ตอนที่ Tim Berners-Lee (ตอนนี้ได้รับการแต่งตั้ง เป็น Sir Tim Berners-Lee เรียบร้อยแล้ว) วิศวกรอิสระของ CERN คิดค้น World Wide Web ขึ้นเป็นครั้งแรกของโลก (ไว้วันหลังค่อยเขียนเรื่อง จุดกำเนิดของ WWW อีกทีแล้วกัน) คุณ Tim แกก็คิดว่า เราน่าจะมีวิธีที่ละลิงค์ผลงานวิชาการของนักวิชาการเข้าด้วยกันเลย ไม่ต้องมานั่งกำหนดรูปแบบที่ยุ่งยาก (เหมือนที่เห็นในกรอบด้านบน) คุณ Tim ก็เลย คิดเรื่องของ Hypertext ขึ้นมา แต่สิ่งที่ Page กำลังทำเป็นการ Reverse Engineer ของ WWW เพราะเค้าต้องการค้นหาถึงที่มา ต้นตอของเอกสารที่ิลิงค์กันนั่นเอง

งานของเค้าก็ง่ายขึ้นเยอะ (แม้ที่เหลือก็จะยังสุดหินก็ตาม) ที่เหลือก็คือว่าเค้าจะต้องหาให้ได้ ว่าใครอ้างอิงจากใครโดยอัตโนมัติ พูดง่ายๆว่าเค้าต้องสร้าง กราฟของอินเตอร์เน็ต บนเครื่องคอมพิวเตอร์ของเค้านั้นเอง แน่นอนว่ากราฟที่เค้าจะสร้างขึ้นจะมีความซับซ้อนสูง และการคำนวนจำนวนลิงค์ที่เชื่อมหากันก็ทำได้ยาก เนื่องจากกราฟมีการเจริญเติบโตเรื่่อยๆ เพราะความซับซ้อนของข้อมูลสูง ดังนั้นสูตรการคำนวณเพื่อให้คะแนนแต่ละหน้า ก็จะมีความซับซ้อนด้วย ตรงนี้นี่เอง ที่ทำให้ Brin กระโดดเข้ามาในโปรเจ็คนี้


Page และ Brin ในช่วงเริ่มต้นโปรเจ็ค google ที่หอพักนักศึกษาของมหาวิทยาลัย (ภาพจากวารสาร WIRED )

ด้วยพื้นเพ back ground เดิมของ Brin ที่เป็นนักคณิตศาสตร์ ที่จัดว่าเข้าขั้นเป็นอัจฉริยะคนหนึ่ง มีเชื้อสายเป็นคนรัสเซีย เกิดที่รัสเซีย มีพ่อเป็นนักวิทยาศาสตร์ชาวรัสเซีย ที่ทำงานที่องค์การ NASA และ เป็นอาจารย์สอนคณิตศาสตร์ ที่มหาวิทยาลัยแมรี่แลนด์ (University of Maryland) โดยครอบครัวเค้าอพยบ มาอยู่ทีอเมริกา ตอนที่ Brin อายุแค่ 6 ขวบ Brin เรียนจบ ม.ปลาย 1 ปีก่อนชาวบ้าน และหลังจากจบปริญญาตรีที่แมรี่แลนด์ Brin ก็มาต่อเอกทันทีที่ Stanford ตัว Brin เองก็ต้องมองหาโปรเจ็คปริญญาเอก ด้วยเช่นกัน แต่เค้าเลือกไปเลือกมา่เกือบ 2 ปีแล้ว ก็ยังหาหัวข้อลงตัวไม่ได้ จนได้เข้ามคลุกคลีกับโปรเจ็คของ Page ก็เกิดความสนใจ ที่จะเข้ามาทำในส่วนคณิตศาสตร์ ของโปรเจ็คนี้ และอีกสาเหตุก็คือเค้าชอบ Page (ฮั่นแน่! กะแล้ว เหมือนหนังไทยไม่มีผิด)

การสร้างกราฟของอินเตอร์เน็ตโดยอัตโนมัติ เป็นจุดเริ่มให้ Page เขียนโปรแกรมเล็กๆ ประเภท Crawler ขึ้นมาตัวหนึ่ง ในห้องนอน ตอนที่ Page เริ่มเขียน crawler นี่ จำนวนหน้าเว็บทั่วโลกก็มีอยู่ประมาณ 10 ล้านหน้าเห็นจะได้ แต่จำนวนลิงค์ที่เชื่อมกันอยู่นี่คงนับไม่ถ้วน โดยหวังจะให้เจ้า Crawler ไต่ไปเก็บข้อมูลมาสร้างเป็นกราฟโดยอัตโนมัติ ในตอนนั้น เค้าอาจจะยังไม่รู้หรอก ว่าโปรแกรมเล็กๆที่เค้าเริ่มเขียนในห้องนอน จะเป็นสิ่งที่ประสบความสำเร็จที่สุดในโลก ต่อจาก Internet ....

หลายคนคงอาจจะยังไม่คุ้นกับคำว่า Crawler ผมขยายความให้อีกนิด Crawler เป็นโปรแกรมเล็กๆโปรแกรมนึง ที่ทำหน้าที่ไปดึงเว็บเพจต่างๆมา ซึ่งปกติแล้วข้อมูลแสดงหน้าเว็บไซท์ที่เราเห็นนี่ เป็นแค่ text file หรือ ข้อมูลตัวอักษรธรรมดาๆนี่เอง (ลองกดที่เมนู view->source ดูนะครับ นั่นแหละคือข้อมูลของหน้าเว็บที่แท้จริง) พอโปรแกรมประเภท บราวเซอร์ เช่น IE หรือ FireFox ได้รับข้อมูลพวกนี้แล้วมันก็ทำการแปล และแสดงให้เป็นสิ่งที่คุณเห็นบนหน้าจอตอนนี้อีกที) หลังจากที่โปรแกรมประเภท crawlwer ได้รับข้อมูลมาแล้ว มันก็จะทำการแยกข้อมูล และลิงค์(ที่จะไปหน้าอื่น) ออกมา สมมุติว่าหน้าที่คุณอ่านอยู่ตอนนี้นี่ มีลิงค์ออกจากมันไป อีกประมาณ 30 ลิงค์ เจ้าตัว crawler ก็จะทำการจัดการเอาลิงค์เหล่านี้มาเข้าคิวเรียงกันไว้ แล้วก็ไล่ไต่ไปทีละลิงค์ตามคิว แล้วก็ไปดึงข้อมูลหน้านั้นมา แล้วแยกลิงค์แบบเดิมอีก แล้วลิงค์ที่ได้จากหน้าถัดไปนี้ก็จะเอามาเข้าคิว เรียงต่อกันไป เรื่อยๆ เพื่อจะทำการไปดึงข้อมูลมาในเวลาถัดๆไป เพราะฉะนั้นมันก็เลยให้ความรู้สึกคล้ายๆกับว่า เจ้า crawler มันค่อยๆคืบคลานออกจากจุดเริ่มต้นไปทีละน้อย ทีละน้อย

และแล้ว ในเดือนมีนาคม 1996 (เพียงแค่ไม่ถึงปีจากที่เค้าเริ่มศึกษา) Page ก็ปล่อยเจ้า crawler ตัวแรกให้เริ่มทำงาน โดยไต่จากหน้าเว็บเพจของเค้าเอง ที่อยู่บนเว็บไซท์มหาวิทยาลัยสแตนฟอร์ด เจ้า crawler เวอร์ชั่นแรกของ Page ไต่ไปตามเว็บเพื่อเก็บแค่ ชื่อเว็บ และ ข้อมูลใน header เท่านั้นเอง แต่ก็ถือว่าเป็นจุดเิริ่มอย่างเป็นรูปธรรมของ Google (ที่ในปัจจุบันกลายเป็น ซุปเปอร์อภิมหาอมตะนิรันดร์กาล crawler ไปแล้ว เพราะมันไต่ไปเก็บข้อมูลทุกอย่าง ของทุกหน้าเว็บ) เพราะขืนเก็บทุกอย่าง ทรัพยากรของระบบ เช่น memory หรือ ฮาร์ดดิสต์ ที่จะต้องใช้ในการจัดการกับข้อมูลเหล่านี้ ก็คงต้องมีขนาดใหญ่มหึมา และมันก็มากเกินกว่าจะเป็นโปรเจ็คของเด็กนักเรียนคนนึง

หน้าที่ 4 - จาก โปรเจ็ค BackRub Project สู่ โปรเจ็ค Google
 

**หมายเหตุ (1บทความนี้เป็นแบบ XML Live-Feeding Article ทดลองใช้เป็นครั้งแรกใน วิชาการ.คอม บทความจะออนไลน์ทันที และผู้เขียนบทความสามารถปรับแก้บทความ ได้ตลอดเวลา จนกว่าบทความจะสมบูรณ์ 2บทความนี้เขียนเพื่อวิชาการ.คอม โดยเฉพาะ (VCharkarn.com's exclusive article) )

ผศ.ดร.บุญญฤทธิ์ อุยยานนวาระ
สถาบันเทคโนโลยีนานาชาติ สิรินธร
มหาวิทยาลัย ธรรมศาสตร์
นักเขียนประจำ วิชาการ.คอม

Page และ Brin ได้ร่วมกันคิดหาสูตร หรือ วิธีคำนวณว่า จะให้คะแนนแต่ละหน้าเว็บเพจอย่างไรดี เว็บเพจหนึ่งหน้า ถ้ามองให้ดีมันก็เป็นเหมือนผลงานวิชาการชิ้นนึง ภายในผลงานวิชาการนี้ ก็จะมีการอ้างอิงผลงานคนอื่น (หรือลิงค์ไปหาคนอื่นนั่นเอง) (แต่บ้านเราอาจจะไม่เป็นแบบนั้น เพราะบ้านเรา ถ้าเห็นว่าเรื่องไหนดี ก็ใช้วิธี cut-paste เนื้อหานั้นไปเลย โดยไม่ได้อ้างอิงที่มา ซึ่งจริงๆแล้วถือว่าเป็นการเสียมารยาทอย่างรุนแรง และละเมิดลิขสิทธิ ด้วยครับ แม้ว่าจะนำไปใช้ในทางไม่ก่อรายได้ ที่อาจจะไม่ผิดลิขสิทธิในบางกรณี แต่ก็น่าจะมีมารยาทในการอ้างอิงถึงที่มาของเนื้อหานั้นด้วย ช่วยๆกันผลักดันให้มันไปในทางถูกต้องมากขึ้นนะครับ) เพราะฉนั้นหากหน้าเว็บใดมีคนอ้างอิงถึง (ลิงค์) ถึงหน้านั้นเยอะ ก็น่าจะแสดงว่าหน้านั้นมีข้อมูลที่ดี หรือ น่าเชื่อถือ ซึ่งหากมีการให้คะแนนแต่ละหน้าเว็บ Page คิดว่าการอ้างถึงจากเว็บอื่นก็จะมีส่วนสำคัญต่อคะแนน


PageRank

ภายหลังเค้าตั้งชื่อเล่นระบบคิดคะแนนของเค้า ว่า Pagerank (ซึ่งล้อคำ 2 ความหมาย คำแรกคำว่า Page หมายถึงได้ทั้งหน้าเว็บ หรือ หมายถึงชื่อของเค้าเอง) ซึ่งก็ล้อเลียนการคิดคะแนนมาจากการอ้างอิงกันของผลงานวิชาการ เพราะเค้ารู้ว่า การอ้างอิงกันของเอกสารทำอย่างไร มีการให้คะแนน Citation Index อย่างไร และเค้าก็ได้เพิ่มเรื่องของการให้และลดคะแนนพิเศษด้วย หากว่าลิงค์ที่ลิงค์มาหาหน้าใดหน้าหนึ่ง เป็นลิงค์ที่มีคะแนนสูง เป็นเว็บที่มีความน่าเชื่อถือ เว็บที่ถูกลิงค์ ก็จะย่อมได้คะแนนสูงด้วย และหากนำเว็บมาเรียงลำดับกัน เว็บที่ได้คะแนนสูงกว่า ก็จะอยู่ลำดับต้นๆ ส่วนเว็บที่มีคะแนนต่ำก็จะอยู่ท้ายๆ

สมมุติว่าเว็บ วิชาการ.คอม มีลิงค์ไปยังเว็บของ สสวท. ในขณะเดียวกัน เว็บของเด็กชาย ก. จากจังหวัดสงขลา ก็ลิงค์มายังเว็บของ สสวท เช่นกัน แต่มีคนลิงค์มาหา เว็บ วิชาการ.คอม อยู่ก่อนแล้ว สมมติว่าเป็น 1000 ลิงค์ ในขณะที่ มีคนลิงค์ไปหาเว็บของ เด็กชาย ก. เพียง 10 ลิงค์ ทำให้ วิชาการ.คอม มีคะแนน สูงกว่าเว็บของ เด็กชาย ก. ดังนั้น เว็บของ สสวท ก็จะไ้ด้คะแนน จาก เว็บของ วิชาการ.คอม มากกว่า จากเว็บของ เด็กชาย ก. ด้วยนั่นเอง (คือไม่ได้นับเฉพาะจำนวนของลิงค์)


ภาพตัวอย่าง สมมติให้หน้ายิ้มแต่ละอันแทนแต่ละเว็บ ขนาดของหน้ายิ้มแทนความสำคัญของเว็บ
สังเกตุว่า เว็บสีแดงด้านบนจะมีขนาดใหญ่กว่าเว็บสีเขียวด้านล่าง แม้จะมีลิงค์เข้ามาแค่ 1 ลิงค์ จากสีส้ม เท่านั้น แต่เพราะเว็บสีส้มมีความสำคัญสูง เพราะได้รับการลิงค์มาจากหลายที่ เว็บสีแดงด้านบนก็เลย มีความน่าเชื่อถือด้วย (ดังนั้นถ้าเว็บไซท์ไหน ได้รับการลิงค์จากเว็บที่เป็นที่ยอมรับ ก็จะได้รับความยอมรับด้วย)

ตอนที่ทั้งสองคนคิดระบบให้คะแนนนี้ขึ้น ทั้งสองคนไม่ได้คิดถึงเรื่องของการค้นหาข้อมูลบนเว็บเลย ที่คิดอยู่ในหัวก็มีแต่เรื่องที่ว่า จะค้นหาให้ได้ว่าใครลิงค์มาที่เว็บเพจหน้าหนึ่งๆบ้าง (ฺBacklinks) โดยที่ทั้งสอง ทำโปรเจ็ค Backrub นี้ มาจนถึงขั้นที่ รับ ลิงค์ (URL) มาหนึ่งลิงค์ มันก็จะให้ ผลลัพธ์ มาเป็น ลิงค์ที่ลิงค์มาหา (backlinks) ทั้งหมดที่ลิงค์มาหาหน้าที่กำหนด โดยเรียงลำดับตามความสำคัญ (เช่นถ้าใส่ เว็บ สสวท ไป ก็จะได้ทั้งเว็บ วิชาการ.คอม และ เว็บเด็กชาย ก. และเว็บอื่นๆ ที่ลิงค์มาหา สสวท เป็น ผลการค้นหา แต่เว็บ วิชาการ.คอม จะอยู่ด้านบนกว่า เว็บของ เด็กชาย ก. เป็นต้น)

ซึ่งเค้าก็พบว่าจริงๆแล้วมันสามารถประยุกต์ ไปทำเป็น Search Engine น่าจะได้ หลังจากเล่นไปเล่นมากับ กราฟของเว็บ ที่ทั้งคู่สร้างขึ้นมา พบว่า การค้นหาข้อมูลทำได้รวดเร็ว และ ถูกต้อง อย่างไม่น่าเชื่อ ชนิดที่ทั้งสองคนยังงงว่าทำไม ไอเดียที่จะใช้เรื่องนี้ทำ Search Engine ถึงไม่ผุดมาในหัวตั้งแต่ต้น เพราะมันชัดเจนเหลือเกิน

หลังจากทดลองปรับแต่ง Backrub ให้กลายเป็น โปรแกรม Search engine ทำการค้นหาข้อมูล บนหน้าเว็บหน้าใดหน้าหนึ่ง (ผมละเชื่อเค้าเลย สองคนนี้ ปกติแล้วเรื่อง การค้นหาข้อมูลใน document นี่ไม่ใช่เรื่องง่าย เพราะไม่ได้ค้นกันแบบ เอาคำเทียบคำ แต่ต้องมีการแปลงรูปแบบของ ข้อมูลให้เป็นเมตริกซ์ ทั้ง SVM กับ LSI (Latent Sematic Indexing - เป็นวิธีการที่กำลังมาแรง) ก็สุดหิน ที่อยู่ในวิชา Information Retrieval - แต่สองคนนี้เล่นเรียนรู้เรื่องเหล่านี้ชนิดที่ประมาณว่า ชั่วข้ามคืน) เค้าพบว่าผลการค้นหา ดีกว่า search engine ที่มีอยู่ในตอนนั้น เช่น AltaVista หรือ Excite มาก โดย Search Engine ที่มีอยู่นั้นมักจะให้ผลการค้นหา ที่ไม่ค่อยจะเกี่ยวข้องกับเรื่องที่ต้องการหาจริงๆ เพราะอาศัยเพียงแค่การจับคู่คำ ไม่คำนึงถึงสัญญาณ หรือข้อมูลอื่นๆที่ใกล้เคียง search engine ใหม่ของพวกเค้า ไม่เพียงว่าผลการค้นหาจะดี แต่ ระบบการให้คะแนนนี้จะดีขึ้นเรื่อยๆ เมื่อเว็บโตขึ้นเรื่อยๆ กราฟของเว็บโตขึ้นเรื่อยๆ ผลการค้นหาก็จะดีขึ้นเรื่อยๆ เพราะจะมีตัวให้คะแนนซึ่งกันและกัน เยอะขึ้น ตรงนี้นี่เองที่ ทั้ง Brin และ Page รู้ว่าเค้า สะดุดขุมทรัพย์ มหึมาเข้าให้แล้ว...

และแล้ว โปรเจ็ค search engine โดยนักศึกษา 2 คน ... ก็เริ่มเป็นรูปร่างที่ชัดเจน ...

ทั้งสองคนจึงตั้งชื่อ search engine ตัวใหม่ของเค้าว่า Google ที่เพี้ยนมาจากคำว่า googol (ที่แปลว่า เลข หนึ่ง ตามด้วย ศูนย์ 100 ตัว - สังเกตุสัญลักษณ์ของ Gooooooooooooooooooooogle) และ เค้าปล่อย เวอร์ชั่นแรกของ Google ไว้บนเว็บของมหาวิทยาลัย Stanford ตอนเดือนสิงหาคม 1996 - เพียง 1 ปี หลังจากที่ทั้งคู่เจอกันครั้งแรก - เพียงไม่กี่เดือนนับจากเริ่มศึกษาปัญหา - โอ จอร์จ ทำได้ยังไงเนี่ย !!!!!
 


Server ของ Google เมื่อปี 1998 สมัยที่ยังอยู่ที่ Stanford เป็นเครื่องที่ได้จากการบริจาคทุกเครื่อง
(ปัจจุบัน Search Engine ของ Google ทำงานอยู่บน Linux Server Farm จำนวนประมาณ 250,000 เครื่อง)
 



แหล่งความรู้เพิ่มเติม และ อ้างอิง
+ เทคโนโลยีของกูเกิ้ล (http://www.google.com/technology/) อธิบาย PageRank โดยต้นสังกัด
+ PageRank ทำงานอย่างไร (http://www.webworkshop.net/pagerank.html) รายละเอียดพร้อมสูตรคำนวณ
+ วารสาร WIRED ฉบับ August, 2005 (John Battelle, The Birth of Google, WIRED, August 2005)
+ ประวัติศาสตร์ของ Google (http://www.google.com/corporate/history.html)

บทความใกล้เคียง
+ GMail ขีดสุดความล้ำหน้าด้านธุรกิจสารสนเทศ
+ Google Earth

เกี่ยวกับผู้เขียน

ผศ. ดร. บุญญฤทธิ์ อุยยานนวาระ (1 ใน 3 ผู้ก่อตั้ง วิชาการ.คอม) จบ ม.ต้น จากโรงเรียนเบญจมราชูทิศ นครศรีธรรมราช และ ม.ปลาย ที่ โรงเรียนหาดใหญ่วิทยาลัย สงขลา และจบ ป.ตรี ด้วยเกียรตินิยมอันดับหนึ่ง ที่คณะวิทยาศาสตร์ มหาวิทยาลัยสงขลานครินทร์ และ ปริญญาเอก จาก King's College มหาวิทยาลัยลอนดอน ประเทศอังกฤษ (ด้วยทุนเล่าเรียนหลวง โครงการ พสวท. ตั้งแต่ ม.4 จน จบ ป.เอก) ปัจจุบันเป็น ผู้ช่วยศาสตราจารย์ ประจำภาควิชาไอที ที่ สถาบันเทคโนโลยีนานาชาติสิรินธร แห่ง มหาวิทยาลัยธรรมศาสตร์

ดร.บุญญฤทธิ์ ขอเป็นอีกหนึ่งแรงเล็กๆ ที่ช่วยผลักดัน การเรียนรู้ของคนไทย เผยแพร่เรื่องราว ดีๆ สู่ประเทศไทย ผ่านวิชาการ.คอม
String Theory ภาค 1: ความฝันที่ใกล้จะเป็นจริงของไอน์สไตน์?
 
ผู้เขียน : ดร. อรรถกฤต ฉัตรภูติ
เนื้อหาย่อ : ไอน์สไตน์เสียชีวิต สิบปีก่อนหน้าที่จะถึงยุคทองของฟิสิกส์อนุภาค จึงไม่ทราบว่า มันไม่ได้มีแค่แรงโน้มถ่วงและแรงแม่เหล็กไฟฟ้า แต่ยังมีแรงพื้นฐานคือ แรงนิวเคลียร์แบบอ่อน และแรงนิวเคลียร์แบบเข้ม ทฤษฎีสตริงค้นพบขึ้นมา ขณะที่นักฟิสิกส์ศึกษาแรงนิวเคลียร์แบบเข้ม
หน้าที่ 1 - ทฤษฎีสนามรวม หรือ Unified field theory
 

ดร. อรรถกฤต ฉัตรภูติ
ภาควิชาฟิสิกส์ จุฬาลงกรณ์มหาวิทยาลัย
นักเขียนประจำ วิชาการ.คอม

ขณะที่นักฟิสิกส์ส่วนใหญ่กำลังตื่นเต้นกับควอนตัมฟิสิกส์ อัลเบิร์ต ไอน์สไตน์ เลือกที่จะแยกตัวออกจากกระแสหลักของวงการ และทุ่มเทช่วงเวลาสามสิบปีสุดท้ายของชีวิต เพื่อค้นหาทฤษฏีพื้นฐานที่จะสามารถอธิบายแรงพื้นฐานธรรมชาติสองชนิดได้ภายในทฤษฏีเดียว ไอน์สไตน์เรียกทฤษฎีนี้ว่า “ทฤษฎีสนามรวม” หรือ Unified field theory ในยุคสมัยของไอน์สไตน์นั้นถึงแม้ว่าจะมีการค้นพบธาตุกัมมันตรังสีแล้ว แต่ความเข้าใจเรื่องแรงนิวเคลียร์ยังต้องรออีกหลายปีหลังจากนั้น นักฟิสิกส์รู้จักแรงในธรรมชาติเพียงสองชนิดคือ แรงโน้มถ่วง และ แรงแม่เหล็กไฟฟ้า ในความพยายามที่จะรวมแรงทั้งสองเข้าด้วยกันไอน์สไตน์มองเห็นความไม่สอดคล้องกันระหว่างภาพของกาลอวกาศ (Space-Time) ที่มีลักษณะต่อเนื่องในทฤษฎีสัมพัทธภาพทั่วไปซึ่งใช้อธิบายแรงโน้มถ่วงระหว่างมวลสาร กับ ทฤษฏีควอมตัมที่ใช้อธิบายอนุภาคเล็กๆ ในความคิดของไอน์สไตน์กลศาสตร์ควอนตัมอธิบายธรรมชาติผ่านหลักความน่าจะเป็น ให้ภาพธรรมชาติที่มัวๆไม่ชัดเจน ไอน์สไตน์ปฏิเสธทฤษฎีควอนตัมและพยายามอธิบายแรงแม่เหล็กไฟฟ้า โดยอาศัยคุณสมบัติทางเรขาคณิตของกาล-อวกาศ เหมือนอย่างที่เขาทำสำเร็จมาแล้วกับแรงโน้มถ่วงในทฤษฎีสัมพัทธภาพทั่วไป

นักฟิสิกส์ในยุคหลังไอน์สไตน์กลับมีความคิดในทางตรงกันข้ามว่าทฤษฎีสัมพัทธภาพทั่วไปของไอน์สไตน์ต่างหากที่มีข้อจำกัดโดยเฉพาะเมื่อนำไปพิจารณาอนุภาคขนาดเล็กๆ พวกเขาเชื่อว่าในระดับขนาดที่เล็กมากๆ กาล-อวกาศไม่ได้มีลักษณะต่อเนื่องเหมือนอย่างที่อธิบายในทฤษฎีสัมพัทธภาพทั่วไป แต่จะมีลักษณะคล้ายกับรูปภาพในหน้ากระดาษหนังสือพิมพ์ ที่เมื่อมองไกลๆจะเห็นเป็นภาพที่ต่อเนื่องเป็นเนื้อเดียวกัน แต่เมื่อเข้ามาพิจารณาในระยะใกล้ๆหรือเมื่อส่องดูด้วยแว่นขยายก็จะพบว่าแท้ที่จริงแล้วรูปนั้นไม่ได้เป็นภาพที่ต่อเนื่องเป็นเนื้อเดียวกัน แต่เกิดจากจุดเล็กๆหลายๆจุดที่วางเรียงอยู่ใกล้ๆกัน ซึ่งทฤษฎีสัมพัทธภาพไม่สามารถที่จะใช้อธิบายธรรมชาติในลักษณะนี้ได้ ข้อจำกัดของทฤษฎีสัมพัทธภาพนี้เองมีส่วนทำให้ไอน์สไตน์ล้มเหลวในการพัฒนาทฤษฎีสนามรวม

 

ควอนตัมโฟม : ความไม่ต่อเนื่องของกาล-อวกาศ
ในระดับขนาดที่เล็กมากๆ กาล-อวกาศไม่ได้มีลักษณะเรียบและต่อเนื่อง แต่จะมีลักษณะคล้ายกับรูปภาพ ในหน้ากระดาษหนังสือพิมพ์ ที่เมื่อมองไกลๆ จะเห็นเป็นภาพที่ต่อเนื่อง เป็นเนื้อเดียวกัน แต่เมื่อเข้ามาพิจารณาในระยะใกล้ๆ หรือเมื่อส่องดูด้วยแว่นขยาย ที่ขยายขึ้นมาเรื่อยๆดังในภาพ ก็จะพบว่าแท้ที่จริงแล้ว เกิดจากจุดเล็กๆหลายๆจุดที่เรียงอยู่ใกล้ๆกัน


 

 

ถึงแม้ว่าทฤษฎีสนามรวมของไอน์สไตน์จะล้มเหลว แต่ความฝันของเขากลับยังคงอยู่ เวลาผ่านไปกว่าห้าสิบปีแนวความคิดเรื่องการรวมแรงพื้นฐานของธรรมชาติให้สามารถอธิบายได้ด้วยทฤษฎีเดียวได้กลายเป็นหนึ่งในกระแสหลักของฟิสิกส์ตั้งแต่ปลายศตวรรษที่แล้ว นักฟิสิกส์จำนวนไม่น้อยพยายามคิดค้นทฤษฎีที่สามารถที่จะอธิบายแรงทั้งหมดในธรรมชาติ หรืออย่างน้อยสามารถอธิบายธรรมชาติของแรงโน้มถ่วงที่ระดับสเกลเล็กๆได้ หนึ่งในทฤษฎีที่ว่านี้คือ ทฤษฎีเส้นเชือก หรือ String theory ซึ่งนักฟิสิกส์หลายท่านเชื่อว่าจะเป็นทฤษฎีที่สามารถทำให้ความฝันของไอน์สไตน์เป็นจริงขึ้นมาได้

 

ไอน์สไตน์เสียชีวิตในปี พ.ศ. 2498 เกือบสิบปีก่อนหน้าที่จะถึงยุคทองของฟิสิกส์อนุภาค เขาจึงไม่มีโอกาสที่จะทราบว่า ธรรมชาติไม่ได้มีแค่แรงโน้มถ่วงและแรงแม่เหล็กไฟฟ้า แต่ยังมีแรงพื้นฐานอีกสองชนิดคือ แรงนิวเคลียร์แบบอ่อน และแรงนิวเคลียร์แบบเข้ม

นอกจากนี้นักฟิสิกส์รุ่นหลานของไอน์สไตน์ ยังได้ค้นพบว่าสสารที่พบเห็นในธรรมชาติ ล้วนประกอบขึ้นมาจากอนุภาคมูลฐานสองกลุ่ม คือ ควาร์ก (Quark) และ เล็ปตอน (Lepton)

กลุ่มแรกเป็นอนุภาคมูลฐานที่ไม่พบอิสระตามธรรมชาติ ควาร์กจะรวมเข้าด้วยกันด้วยแรงนิวเคลียร์แบบเข้ม อนุภาคที่เป็นองค์ประกอบในนิวเคลียสของอะตอมเช่น โปรตอน และนิวตรอน ล้วนเป็นอนุภาคที่ประกอบด้วยควาร์กสามตัว ส่วนกลุ่มหลังคือเล็ปตอน เป็นอนุภาคมูลฐานที่สามารถพบได้อิสระตามธรรมชาติเช่น อิเล็คตรอน และ มิวออน เป็นต้น โปรตอนกับนิวตรอนรวมตัวกันในนิวเคลียสด้วยแรงนิวเคลียร์

ในขณะที่อิเล็กตรอนถูกประจุไฟฟ้าบวกของโปรตอนดึงดูดให้โคจรรอบนิวเคลียสด้วยแรงแม่เหล็กไฟฟ้ากลายเป็น “อะตอม” ของธาตุต่างๆ ทฤษฎีควอนตัมยังได้อธิบายแรงที่กระทำระหว่างอนุภาคพื้นฐานเหล่านี้ว่าเกิดจากการที่มันแลกเปลี่ยน “อนุภาคสื่อ” ระหว่างกัน ในภาพของควอนตัมฟิสิกส์แรงแม่เหล็กไฟฟ้าเกิดจากการที่อนุภาคมีประจุแลกเปลี่ยนโฟตอน (อนุภาคของแสง) ไปมาระหว่างกัน ในขณะที่โฟตอนเป็นสื่อนำแรงแม่เหล็กไฟฟ้า แรงนิวเคลียร์แบบเข้มจะมีอนุภาคที่ชื่อว่า กลูออน ทำหน้าที่เป็นอนุภาคสื่อ ส่วนอนุภาค Z และWเป็นสื่อนำแรงนิวเคลียร์แบบอ่อน

นอกจากนี้แล้วในทศวรรษที่ 70 นักฟิสิกส์ยังสามารถที่จะอธิบายปรากฏการณ์ต่างๆ ของแรงนิวเคลียร์ทั้งสองแบบ และแรงแม่เหล็กไฟฟ้า ได้โดยอาศัยทฤษฎีเพียงทฤษฎีเดียว ที่รู้จักกันในชื่อ “แบบจำลองมาตรฐานของอนุภาคมูลฐาน” (Standard Model of fundamental particles)

แม้ว่าแบบจำลองมาตรฐานจะประสบความสำเร็จในการทำนายปรากฏการณ์ต่างๆในธรรมชาติได้อย่างมีประสิทธิภาพ แต่มันก็ยังมีข้อจำกัดในหลายๆด้าน ข้อจำกัดที่สำคัญมากที่สุดอันหนึ่งคือ แบบจำลองมาตรฐานไม่สามารถอธิบายพฤติกรรมของอนุภาคเมื่อมีแรงโน้มถ่วงเข้ามาเกี่ยวข้องได้ แรงโน้มถ่วงจะมีผลกับการทดลองมากเมื่ออนุภาคมีพลังงานสูงมากๆ ซึ่งทำให้ผลการคำนวณจากแบบจำลองมาตรฐานมีความผิดพลาดเนื่องจากไม่ได้คำนึงถึงแรงโน้มถ่วง ทฤษฎีควอนตัมพยายามอธิบายแรงโน้มถ่วงว่าเกิดจากการที่อนุภาคแลกเปลี่ยนอนุภาคสื่อที่เรียกกันว่า “กราวิตอน” (Graviton) นักฟิสิกส์เรียกทฤษฎีควอนตัมที่อธิบายแรงโน้มถ่วงนี้ว่า “ทฤษฎีความโน้มถ่วงควอนตัม” (Quantum gravity) ในช่วงเวลากว่า 30 ปีที่ผ่านมานักฟิสิกส์ชั้นนำของโลกหลายต่อหลายคนพยายามที่จะพัฒนาทฤษฎีนี้ แต่ก็ยังไม่ประสบผลสำเร็จ จนถึงทุกวันนี้ยังไม่มีทฤษฎีที่เหมาะสมที่จะสามารถจัดการความไม่ต่อเนื่องของกาล-อวกาศได้ ปัจจุบันนักฟิสิกส์ทำได้ดีที่สุดเพียงแค่สร้างทฤษฎีที่ให้ภาพอย่างคร่าวๆของพฤติกรรมเชิงควอนตัมของแรงโน้มถ่วง และคาดหวังว่าทฤษฎีเหล่านี้จะนำไปสู่ทฤษฎีควอนตัมกราวิตีที่แท้จริง ซึ่งสามารถจะรวมแรงโน้มถ่วงเข้ากับแรงธรรมชาติที่เหลือได้ หนึ่งในทฤษฎีเหล่านั้นรู้จักกันในชื่อของ “ทฤษฎีเส้นเชือก” หรือ “String Theory” เนื่องจากในทฤษฎีนี้มีสมมุติฐานว่าอนุภาคต่างๆไม่ได้มีลักษณะเป็นจุด (Point-like particle) เหมือนอย่างในทฤษฎีควอนตัม ในทฤษฎีสตริงอนุภาคทุกชนิด ทั้งที่เป็นอนุภาคที่ประกอบขึ้นเป็นสสารและอนุภาคที่เป็นสื่อนำแรงล้วนเป็นเส้นเชือกที่กำลังสั่นด้วยความถี่ต่างระดับกัน เส้นเชือกเส้นเดียวกันถ้าสั่นด้วยความถี่ค่าหนึ่งอาจเป็นอิเล็กตรอน แต่เมื่อความถี่ของการสั่นเปลี่ยนไปเป็นอีกค่าหนึ่ง เชือกเส้นนั้นก็จะกลายเป็นอนุภาคชนิดอื่น
 


จอห์น ชวาชซ์ (John Schwarz) นักฟิสิกส์อเมริกันหนึ่งในผู้บุกเบิก String Theory

ทฤษฎีสตริงค้นพบขึ้นมาโดยบังเอิญขณะที่นักฟิสิกส์กำลังศึกษาแรงนิวเคลียร์แบบเข้ม และได้รับความสนใจในระยะสั้นๆ นักฟิสิกส์ส่วนใหญ่จะหันไปศึกษาทฤษฎีQuantum Chromodynamics หรือ QCD ซึ่งสามารถอธิบายแรงนิวเคลียร์แบบเข้มได้ดีกว่า มีเพียงนักฟิสิกส์ที่เป็น “แฟนพันธ์แท้” ของทฤษฎีเส้นเชือกเพียงไม่กี่คนเท่านั้นที่ยังคงยืนหยัดศึกษาทฤษฎีนี้ต่อไป ในจำนวนนั้นมี จอห์น ชวาชซ์ (John Schwarz) นักฟิสิกส์อเมริกัน และ เพื่อนรวมงานชาวฝรั่งเศส โจแอล เชอร์ก (Joel Scherk) ในปี พ.ศ. 2517 ทั้งคู่ค้นพบว่าบางความถี่ของการสั่นในทฤษฎีเส้นเชือกนั้น มีคุณสมบัติที่สอดคล้องกับอนุภาค กราวิตอน อนุภาคซึ่งเป็นสื่อนำแรงโน้มถ่วง นักฟิสิกส์อื่นๆจึงกลับมาสนใจทฤษฎีเส้นเชือกอีกครั้ง และในครั้งนี้ทฤษฎีเส้นเชือกไม่ได้เป็นเพียงแค่ทฤษฎีที่อธิบายแรงนิวเคลียร์แบบเข้มเท่านั้น แต่มันกลับมาในฐานนะทฤษฎีที่อาจจะเป็น ทฤษฎีแรงโน้มถ่วงควอนตัม

ยิ่งไปกว่านั้น ในเมื่ออนุภาคที่เป็นสื่อนำแรงทั้งสี่ชนิดไม่ว่าจะเป็น โฟตอน กลูออน อนุภาค W และ Z รวมถึง กราวิตอน ต่างก็เป็นการสั่นของเส้นเชือกมาตรฐานชนิดเดียวกันที่มีความถี่ต่างกัน อุปมาเหมือนกับตัวโน๊ตที่บรรเลงออกมาจากเครื่องสายตัวเดียวกัน ทฤษฎีเส้นเชือกจึงสามารถที่จะอธิบายแรงทั้งสี่ชนิดในธรรมชาติได้ด้วยตัวของมันเอง หลายคนอ้างถึงทฤษฎีเส้นเชื่อกว่าเป็นทฤษฎีสรรพสิ่ง หรือ Theory of Everything ในความหมายที่มันสามารถอธิบายแรงทั้งสี่ของธรรมชาติได้นั่นเอง


ทฤษฎีเส้นเชือก สมมุติว่าอนุภาคไม่ได้มีลักษณะเป็นจุด แต่เป็นเส้นหนึ่งมิติ โดยการสั่นของเส้นเชือกนี้ ทำให้เกิดเป็นตัวโน๊ตต่างๆ ตัวโน๊ตหนึ่งตัว สามารถแทนอนุภาคได้หนึ่งตัว ตัวโน๊ตที่ต่างคีย์กัน ก็จะให้อนุภาคที่ต่างชนิดกัน นักฟิสิกส์บางกลุ่มเชื่อว่าการสั่นในบางลักษณะของเส้นเชือกอาจจะเป็นอิเล็กตรอน และ ควาร์กได้
(ภาพจาก NOVA the Elegant Universe : http://www.pbs.org/wgbh/nova/elegant/ )

การที่ทฤษฎีเส้นเชือกสมมุติว่าอนุภาคไม่ได้มีลักษณะเป็นจุด แต่เป็นเส้นหนึ่งมิติ ช่วยให้นักฟิสิกส์ลดความยุ่งยากทางเทคนิคในการรวมทฤษฎีสัมพัทธภาพทั่วไปกับทฤษฎีควอนตัม ปัญหาดังกล่าวเกิดขึ้นเนื่องจากความไม่ต่อเนื่องของกาล-อวกาศในระดับที่เล็กกว่าขนาดของอะตอมมากๆ ธรรมชาติในระดับเล็กมากๆนั้น อวกาศมีลักษณะ ขรุขระ ไม่ต่อเนื่อง และมีการบิดเบี้ยวอย่างรุนแรง ปรากฏการณ์ดังกล่าวเรียกว่า ควอนตัมโฟม (Quantum foam) อนุภาคที่มีลักษณะเป็นจุดในทฤษฎีแบบเก่า รวมถึงอนุภาคกราวิตอน จะถูกอิทธิพลของควอนตัมโฟมรบกวนอย่างหนัก จนทำให้นักฟิสิกส์ไม่สามารถใช้ในการคำนวณได้ เปรียบเหมือนเรือลำเล็กๆที่ล่องลอยอยู่ในมหาสมุทรท่ามกลางพายุและคลื่นลมซึ่งย่อมจะบังคับทิศทางได้ลำบาก ในขณะที่เส้นเชือกใน String Theory เปรียบเหมือนเรือเดินสมุทรขนาดใหญ่สามารถทนทานต่อพายุในทะเลได้ ผลของควอนตัมโฟมจึงไม่มีอิทธิพลในการคำนวณ จนนักฟิสิกส์สามารถประมาณได้ว่ากาลอวกาศมีลักษณะเรียบและต่อเนื่องในทฤษฎีเส้นเชือก

อย่างไรก็ตาม...

  หนังสืออิเล็กทรอนิกส์ 

ฟิสิกส์ 1(ภาคกลศาสตร์) 

 ฟิสิกส์ 1 (ความร้อน)

ฟิสิกส์ 2  กลศาสตร์เวกเตอร์
โลหะวิทยาฟิสิกส์ เอกสารคำสอนฟิสิกส์ 1
ฟิสิกส์  2 (บรรยาย) แก้ปัญหาฟิสิกส์ด้วยภาษา c  
ฟิสิกส์พิศวง สอนฟิสิกส์ผ่านทางอินเตอร์เน็ต
ทดสอบออนไลน์ วีดีโอการเรียนการสอน
หน้าแรกในอดีต  

   การทดลองเสมือน 

บทความพิเศษ  ตารางธาตุ(ไทย1)   2  (Eng)
พจนานุกรมฟิสิกส์ 

 ลับสมองกับปัญหาฟิสิกส์

ธรรมชาติมหัศจรรย์ 

 สูตรพื้นฐานฟิสิกส์

การทดลองมหัศจรรย์  ดาราศาสตร์ราชมงคล

  แบบฝึกหัดกลาง 

แบบฝึกหัดโลหะวิทยา  

 แบบทดสอบ

ความรู้รอบตัวทั่วไป 

 อะไรเอ่ย ?

ทดสอบ(เกมเศรษฐี) 

คดีปริศนา

ข้อสอบเอนทรานซ์ เฉลยกลศาสตร์เวกเตอร์
คำศัพท์ประจำสัปดาห์  

  ความรู้รอบตัว

การประดิษฐ์แของโลก ผู้ได้รับโนเบลสาขาฟิสิกส์
นักวิทยาศาสตร์เทศ นักวิทยาศาสตร์ไทย
ดาราศาสตร์พิศวง  การทำงานของอุปกรณ์ทางฟิสิกส์
การทำงานของอุปกรณ์ต่างๆ  

กลับเข้าหน้าแรก

กลับหน้าแรกโฮมเพจฟิสิกส์ราชมงคล

ครั้งที่

เซ็นสมุดเยี่ยม

ภาพประจำสัปดาห์