ดวงตาดิจิตอล

By: orbitalz
Writer
on Wed, 27/02/2013 - 00:35

เคยพาทุกท่านไปชมภาพ micrography สวยๆ กันมาแล้ว วันนี้จะชวนทุกท่านทำตัวให้เล็กลงไปอีกกับการลงไปทัวร์โลกแห่ง microscope กัน

การถ่ายภาพแบบ micrography จะต่างกับการถ่ายภาพด้วย microscope ตรงวิธีของแสงที่เข้าไปสู่ยังหน่วยบันทึกภาพ

ถ้าเป็น micrography แสงจะตกลงไปยังวัตถุแล้วสะท้อนเข้าสู่เลนส์และหน่วยบันทึกภาพต่อไป

ถ้าเป็น microscope เราจะอาศัยหลัก trans-illumination คือแสงจะผ่านทะลุผ่านวัตถุเข้าสู่เลนส์ จนถึงหน่วยบันทึกภาพ

ก็ที่อาจารย์สั่งให้พวกเราดูเกสรดอกไม้ เซลล์คุม ท่อลำเลียงอาหาร เซลล์สืบพันธุ์ของผู้ชาย แล้วเราจะต้องปรับกระจกใต้กล้องจุลทรรศน์ให้แสงตรงกับสไลด์แล้วจึงจะส่องนั่นได้แหละ

เอาล่ะวันนี้สิ่งที่เราจะมาส่องกันก็คือ ดวงตาของโลกดิจิตอล หรือ sensor ในกล้องดิจิตอลที่เราใช้กันทุกวัน

sensor ตัวที่เราจะส่องนี้แกะมาจากกล้อง Nikon รุ่น D2H เป็นประเภท CMOS

D2H's CMOS

การถ่าย sensor ตัวนี้ด้วย microscope จะยากมากเพราะตัว sensor เองมันไม่โปร่งใสเหมือนกับตัวอย่างชีวภาพ จะต้องมีเทคนิคเข้ามาช่วยเรียกว่า epi-illumination

หลักการก็คล้ายๆกับการถ่ายภาพทั่วๆไปนั่นเอง

epi-illumination

โฉมหน้าเลนส์กำลังขยาย 40 เท่า ที่ใช้

40x Lense

นี่ล่ะครับ หน้าตาของ effective pixel array ถ้ามองจากในภาพก็ที่ลักษณะคล้ายถาดสี่เหลี่ยมเล็กๆแล้วมีไข่ดาววางอยู่ตรงกลางนั่นแหละ เดี๋ยวนี้ปาเข้าไป 36 ล้านพิกเซลกันแล้ว ต้องขอบคุณเทคโนโลยี fabrication ที่พัฒนาขึ้นซะจริงๆ

ส่วนมองดูคล้ายไข่ดาวคือเลนส์ขนาดจิ๋ว (micro lenses) ครับ ทำหน้าที่รวมแสงอีกทีนึงก่อนส่งต่อให้หน่วยความไวแสง (photo diode) ที่อยู่ลึกลงไปอีกทีนึง

กล้องที่ใช้ถ่ายภาพเป็นขาวดำ จึงมองไม่เห็น microsite สีต่างๆ แต่ก็สามารถบอกได้คร่าวๆ อันที่สว่างๆหน่อยคืออันที่เป็นสีเขียว ส่วนอันที่มืดกว่าจะเป็นสีแดงหรือสีน้ำเงิน

The effective pixel array

จากภาพถ่ายถ้าพิจารณาดีๆจะพบว่าช่องว่างระหว่างเลนส์จิ๋วนี้ค่อนข้างใหญ่ ดังนั้น optical fill factor ที่คำนวณได้จึงต่ำกว่า 60% ครับ

จึงคาดเดาได้ว่า sensor ตัวนี้น่าจะมีความละเอียดไม่สูงนัก ซึ่งก็คือ 4.1 megapixel นั่นเอง

(ความละเอียดกับความคมต่างกันนะครับ ถึงแม้ว่าความละเอียดจะต่ำแต่ D2H ตัวนี้ถือว่าเป็นกล้องเรือธงสมัยนั้นเลย ภาพที่ได้จึงคมมาก)

พอแสงหรือโฟตอนตกกระทบเลนส์จิ๋วแล้วก็จะส่งต่อไปยังหน่วยความไวแสง (โฟตอน - แสงที่เป็นกลุ่มก้อนพลังงาน)

เจ้าหน่วยนี้ก็จะทำการนับโฟตอนที่เข้ามา (photon count) แล้วส่งสัญญาณไปสู่หน่วยประมวลผล จุดไหนของภาพที่สว่างก็จะมีโฟตอนเยอะ จุดไหนของภาพที่มืดก็จะมีโฟตอนน้อยหน่อย

แต่บางครั้งมันก็ส่งสัญญาณหลอกๆ ถ้าไม่มีการแก้ไขจะทำให้ภาพที่ได้ผิดเพี้ยนไปจากความเป็นจริง ซึ่งเราก็เรียกติดปากกันไปแล้วนั่นก็คือเจ้า noise นั่นเอง

ถ้าสัญญาณหลอกเยอะภาพก็เละ ถ้าสัญญาณหลอกน้อยภาพก็ออกมาเนียน

นักวิทยาศาสตร์และวิศวกรเค้าก็มีการรายงานค่าพวกนี้ออกมาในรูปการเปรียบเทียบเรียกว่า S/N หรือ signal to noise ratio (สัดส่วนปริมาณค่าสัญญาณจริงต่อสัญญาณหลอก)

วิธีการเพิ่มค่า S/N ก็คืออาศัยการตรวจจับสัญญาณหลอกที่เกิดขึ้น

optical black (OB) region

ผู้อ่านทุกท่านคงสังเกตเห็นกันนะครับว่าครึ่งซีกล่างนี่ดำมืดเลยทีเดียว เพราะว่ามีโลหะไปกั้นไม่ให้แสงตกกระทบหน่วยความไวแสงได้ เราเรียกพิกเซลเหล่านี้ว่า optical black pixels

เพราะฉะนั้นถ้ามีสัญญาณออกมาจากพิกเซลเหล่านี้ ก็จะเป็นสัญญาณหลอกๆ นั่นเอง ศัพท์เทคนิคเรียกว่า dark current (กระแสมืด) เพราะเป็นกระแสที่เกิดขึ้นในที่มืดนั่นเอง

ชิพประมวลผลก็จะนำค่าเฉลี่ยของ dark current เหล่านี้ไปหักออกจากค่าที่ได้จากพิกเซลทั้งสามสี ภาพที่ได้จึงที noise น้อยลง

 

 

 

เล่ามาได้พอสมควรทีเดียว ผู้อ่านคงเข้าใจหลักการเบื้องต้นของ sensor ที่ใช้ในกล้องดิจิตอลกันไปพอสมควร

ถ้าอยากรู้เพิ่มขึ้น อดใจรอตอนต่อไปนะครับ

 

 

 

 

 

ที่มา - landingfield's weblog

3 Comments

mementototem's picture

>การถ่ายภาพ microscopy จะต่างกับการถ่ายภาพ microscope

เดาว่าน่าจะพิมพ์ผิด คงไม่ใช่ microscopy แต่เป็น micrography รึเปล่าครับ?


กล้องถ่ายภาพแบบนี้ที่ถ่ายภาพสีก็มีใช่ไหมครับ?

orbitalz's picture

แก้เรียบร้อยแล้ว ขอบคุณครับ

กล้องถ่ายภาพสีมีครับ และก็มีแบบถ่าย 3D ได้ก็มีครับ

http://gorbital.blogspot.com/