ทำไม Sensorของกล้องถ่ายภาพจึงไม่สามารถเห็นสีของแสง

กระทู้คำถาม
สวัสดีครับ
    คือผมเข้าใจว่า Sensor ของกล้องถ่ายภาพทุกวันนี้ สร้างออกมาจะรับได้แค่ขาวดำ ถ้าจะให้รับสีได้ต้องมี filter กรองสี RGB แบบ Pixel ละสี
เพื่อให้มีโฟตอนที่ต้องการตกลงไป Sensor จึงสงสัยว่าทำไมเราจึงไม่สร้าง Sensor ให้รับรู้สีของแสงได้แต่แรกใน Pixel เดียวกันเลยโดยไม่ต้อง
ใส่ Filter แล้วประมาณผลรวม RGB ของ Pixel มีเป็นภาพเลยแต่แรกล่ะครับ มันมีข้อจำกัดตรงไหน หรือเพราะจะเลียนแบบการมองเห็นของตาคน
เราครับ คือผมลองค้นๆ ดูเห็นมี Foveon X3 sensor แต่มันคือการเอา sensor 3 สีมากองที่ Pixel เดียวกันเลย
แสดงความคิดเห็น
โปรดศึกษาและยอมรับนโยบายข้อมูลส่วนบุคคลก่อนเริ่มใช้งาน อ่านเพิ่มเติมได้ที่นี่