สวัสดีครับ
1. Resolution ที่หน้าจอของคุณสามารถแสดงผลได้
- ซึ่งสัมพันธ์กับขนาดหน้าจอ
2. Resolution ที่อุปกรณ์ (การ์ดจอ, เครื่องเกม) ปล่อยออกมา
3. Frame Rate (FPS) ซึ่งจะสัมพันธ์กับอีก 2 อย่างคือ
3.1 Resolution (ยิ่งมากยิ่งกินกำลังการประมวลผล และยิ่งช้าลง) (ข้อ 2.)
3.2 ลักษณะ/ความเร็วของ motion การเคลื่อนไหวนั้นๆ
อันแรก Resolution หรือความละเอียดคมชัดของหน้าจอคุณเท่าไหร่ ยิ่งมากยิ่งชัด มาตรฐานปัจจุบันคือ Full HD (1080p) ถามว่ามาตรฐานนี้มาจากไหน ก็ตอบว่ามาจากตัว "ภาพ" หรือ สื่อ หรือ media คือ ภาพที่ปล่อยๆ กันออกมาจากแหล่งต่างๆ ไม่ว่าจะ สถานีโทรทัศน์, Cable TV, Satellite, DVD, Blu-Ray ฯลฯ มันมีคุณภาพแค่ไหน
เมื่อก่อนที่คุณภาพของวีดีโอภาพเหล่านี้มันน้อยมันห่วย จะทำทีวี/จอที่สามารถแสดงผลได้ละเอียดมากๆ ไปไร้ประโยชน์
แต่พอปัจจุบัน ทีวีดิจิตอล ปล่อยภาพที่ Full HD คุณจึงควรมีทีวี/จอที่ Full HD เพื่อเสพให้ได้เต็มอรรถรส แต่หลายๆ ท่านอาจจะมีมาก่อนนานแล้วเวลาดู DVD ซึ่งมีความละเอียดที่ HD Ready หรือ 720p
อย่างแรก คือ Resolution ที่หน้าจอแสดงผลได้ กับ Resolution ของตัวภาพวีดีโอที่ปล่อยออกมา มันต้องสัมพันธ์กัน สัญญานภาพ HD แต่จอห่วยก็ไม่ดี หรือจอดีแต่สัญญานภาพห่วยก็ไม่ดี
ต่อมา
"ขนาดจอภาพ" --> resolution x screen size =
pixel density (ความหนาแน่นของเม็ด pixel ~ PPI) (pixel per inch)
มันเปรียบเหมือนกรอบภาพที่จะขึงขนาดของภาพของคุณให้เท่ากับขนาดหน้าจอ ถ้าเอาวีดีโอ 720p (HD Ready) ไปแสดงผลบนหน้าจอขนาด 55 นิ้วมันย่อมแตก เห็นเม็ดพิ๊กเซล ยิ่งเมื่อเทียบกับ 4K
กลับกัน เอา 4K ไปแสดงผลบนหน้าจอหน้า 8 นิ้ว (สมมุติว่ามันแสดงผลได้) สายตาก็ไม่สามารถแยกความแตกต่างกับ 720p หรือ 1080p อีกอยู่ดี เพราะว่าขนาดหน้าจอมันเล็กมากเกินไป
จำง่ายๆ ก็คือ ยิ่ง Resolution เยอะ มันจะยิ่งควรมาพร้อมกับหน้าจอแสดงผลที่ใหญ่ตามไปด้วย ถ้าเล่นเกมที่ 3840 x 2160 บนหน้าจอแค่ 20" (สมมุติว่ามี/มันแสดงผลได้) ก็บอกได้เลยว่าไม่เต็มประสิทธิภาพ แต่ด้วยว่าธรรมชาติของการใช้คอมพ์เรานั่งใกล้หน้าจอมาก เลยทำให้ยังพอได้อรรถรส
พวกค่ายมือถือนี่ตัวดีเลย คุยเรื่องหน้าจอ Full HD ที่ขนาดแค่ 5 นิ้ว จะบ้าตาย ด้วยขนาดหน้าจอแค่นั้น 720p กับ 1080p มันไม่ต่างกันเลย ความต่างมันระดับ... อณู จุลภาค อะไรทำนองนั้น (คำณวน resolution x ขนาดหน้าจอแล้วได้ประมาณ 440ppi)
*วิทยาศาสตร์: สายตาคนเราสามรถแยกแยะความละเอียดได้สูงสุดที่ประมาณ 300ppi (pixel per inch)
เอา TV มาใช้งานแทนจอคอมพ์ได้หรือไม่ ดีมั้ย?
สมมุติ TV 40 นิ้ว แสดงผลที่ 1080p VS PC Monitor 27 นิ้ว แสดงผลที่ 1080p
คำตอบคือ ขึ้นอยู่กับว่าใช้งานอะไร จะเห็นว่ามันแสดงผลได้เท่ากันเป๊ะ แต่บนขนาดหน้าจอที่ต่างกัน ดังนั้น บนทีวี ภาพมันจะแตกกว่า monitor แต่ก็จะไม่เป็นปัญหาเลยถ้าใช้ในด้าน entertainment ทั่วไป ดูหนัง, เล่นเกม, youtube
แต่ ถ้าใช้อ่านหนังสือ พิมพ์งาน หรืออะไรที่ต้องการความละเอียดเยอะๆ ก็ควรใช้ monitor ที่ขนาดเล็กกว่า บีบอัด resolution ลงมาละเอียดกว่านั่นเอง
ง่ายๆ คือ pixel density (ppi) เยอะๆ เหมาะกับการอ่านหนังสือ พิมพ์งาน (ตัวอักษรไม่แตก) และน้อยลงกับงานด้านความบันเทิง ดูหนัง เล่นเกม ฯลฯ
อนึ่ง อย่าลืมว่า "ระยะห่าง" ระหว่างผู้ใช้กับหน้าจอก็สำคัญ ยิ่งนั่งใกล้ก็ยิ่งเห็นความแตกต่างของ resolution ได้มาก ยิ่งไกลก็ยิ่งแยกไม่ออก ให้เปิด 4K บนทีวี 40 นิ้วแต่ดูห่าง 8 เมตรก็แยกไม่ออกว่ามัน Full HD หรือว่า 4K กันแน่
ต่อมา ตัวอุปกรณ์ (การ์ดจอ, เครื่องเล่นเกม) ปล่อย resolution ออกมาที่เท่าไหร่ ซึ่งก็แน่นอนว่าถ้ามันปล่อยออกมาชัด หรือ resolution มากกว่าที่หน้าจอ/ทีวี จะแสดงผลได้ ก็ไร้ประโยชน์ เพราะจอก็จะแสดงผลแค่ตามที่มันทำได้
ให้เอา PC กับการ์ดจอแรงๆ ไปต่อ TV Full HD 1080p แล้วปล่อย resolution ที่ 3840 x 2160 ออกมาก็เงิบ ไร้ประโยชน์ เพราะจอมันแสดงผลแค่ที่ 1080p เท่านั้นนั่นเอง
ดังนั้น จะเห็นว่า Resolution ของหน้าจอที่เราจะใช้นั้นสำคัญมาก เพราะมันแสดงผลที่ต่ำกว่าได้ แต่สูงกว่านั้นไม่ได้ จะไปจัด GTX970 แต่แสดงผลบนมอร์นิเตอร์ 1080p ก็เสียประสิทธิภาพไปบานตะเกียง
Frame Per Second หรือ FPS คือ "จำนวนภาพที่แสดงผลใน 1 วินาที" ยิ่งมากยิ่ง smooth ลื่นไหลดุจใช้ซันซิลค์
ธรรมชาติ วีดีโอยิ่งละเอียดมาก resolution ยิ่งสูง ยิ่งต้องใช้กำลังในการประมวลผลเยอะ ทำให้สามารถแสดงผลที่ FPS ได้น้อยลง
จึงเกิดคำถามว่า fps เท่าไหร่ถึงดี หรือสายตาคนเรามองได้แค่ไหน ตอบ
"ขึ้นอยู่ลักษณะหรือความเร็วของวีดีโอ motion นั้นที่คุณดู"
ถ้าเป็น "ภาพนิ่ง" ให้ 1 FPS vs 100 FPS ก็เท่านั้น ก็มันไม่เคลื่อนไหวนี่นา ถูกต้อง
กลับกัน เฟรมเรท หรือ FPS ยิ่งสูง จะสังเกตุได้ก็ต่อเมื่อดูกับภาพที่เคลื่อนไหวเร็วๆ ตามไปด้วย
ถ้า motion นั้นเคลื่อนไหวเร็ว แต่ fps น้อย มันก็จะเกิดเงา เบลอ หรือ ghost
ในทางกลับกัน ต่อให้มีหน้าจอ 120MHz (ซึ่งแสดงผลได้สูงสุด 120fps) กับการ์ดจอที่ปล่อยภาพที่ 100+fps แต่วีดีโอที่แสดง เป็นแค่คนเดินเนิบนาบๆ มันก็จะไม่ได้ต่างไปจากดู 60fps
แต่แน่นอน ถ้าเป็นภาพเร็วๆ เป็นรถแข่ง F1 หรือฉากต่อสู้เร็วๆ รัวๆ ดุเดือดๆ 60fps ทำได้ดีกว่า 30fps ฉันท์ใด 120fps ก็ทำได้ดีกว่า 60fps ฉันท์นั้น นั่นล่ะครับ
*TV 4K หลายๆ เครื่องในปัจจุบันจะแสดงภาพ 4K ได้ที่แค่ 30MHz หรือ 30fps เท่านั้น เช็คสเปคให้ดีก่อนซื้อนะครับ
แต่ตรงนี้ เป็นเรื่องของ PC แล้ว เพราะสัญญานภาพอื่นๆ ในโลกล้วนแสดงผลที่:
24fps (Film)
30fps (วีดีโอส่วนใหญ่ทั่วไป, ละคร, ข่าว, youtube)
และ 60fps (PS4, วีดีโอจากกล้องรุ่นใหม่ๆ)
ส่วนคำถามที่ว่า "สายตาคนเราสามารถมอง fps ได้สูงสุดที่เท่าไหร่" ตอบว่า อ้างอิงจากสายตานักบินสหรัฐฯที่มีการทดลองมา ได้ที่ 220fps
อย่างไรก็ดี สายตาคนทั่วๆ ไปที่ไม่ได้คลุกคลีกับงานด้านนี้ พ่อบ้านแม่บ้าน คุณตาคุณยาย แค่ 30 กับ 60fps ก็แทบแยกไม่ออกแล้วครับ
สวัสดีครับ
:: Resolution & Frame Rate (FPS) อันไหนคือพอดี อันไหนคือไม่จำเป็น ::
1. Resolution ที่หน้าจอของคุณสามารถแสดงผลได้
- ซึ่งสัมพันธ์กับขนาดหน้าจอ
2. Resolution ที่อุปกรณ์ (การ์ดจอ, เครื่องเกม) ปล่อยออกมา
3. Frame Rate (FPS) ซึ่งจะสัมพันธ์กับอีก 2 อย่างคือ
3.1 Resolution (ยิ่งมากยิ่งกินกำลังการประมวลผล และยิ่งช้าลง) (ข้อ 2.)
3.2 ลักษณะ/ความเร็วของ motion การเคลื่อนไหวนั้นๆ
อันแรก Resolution หรือความละเอียดคมชัดของหน้าจอคุณเท่าไหร่ ยิ่งมากยิ่งชัด มาตรฐานปัจจุบันคือ Full HD (1080p) ถามว่ามาตรฐานนี้มาจากไหน ก็ตอบว่ามาจากตัว "ภาพ" หรือ สื่อ หรือ media คือ ภาพที่ปล่อยๆ กันออกมาจากแหล่งต่างๆ ไม่ว่าจะ สถานีโทรทัศน์, Cable TV, Satellite, DVD, Blu-Ray ฯลฯ มันมีคุณภาพแค่ไหน
เมื่อก่อนที่คุณภาพของวีดีโอภาพเหล่านี้มันน้อยมันห่วย จะทำทีวี/จอที่สามารถแสดงผลได้ละเอียดมากๆ ไปไร้ประโยชน์
แต่พอปัจจุบัน ทีวีดิจิตอล ปล่อยภาพที่ Full HD คุณจึงควรมีทีวี/จอที่ Full HD เพื่อเสพให้ได้เต็มอรรถรส แต่หลายๆ ท่านอาจจะมีมาก่อนนานแล้วเวลาดู DVD ซึ่งมีความละเอียดที่ HD Ready หรือ 720p
อย่างแรก คือ Resolution ที่หน้าจอแสดงผลได้ กับ Resolution ของตัวภาพวีดีโอที่ปล่อยออกมา มันต้องสัมพันธ์กัน สัญญานภาพ HD แต่จอห่วยก็ไม่ดี หรือจอดีแต่สัญญานภาพห่วยก็ไม่ดี
ต่อมา "ขนาดจอภาพ" --> resolution x screen size = pixel density (ความหนาแน่นของเม็ด pixel ~ PPI) (pixel per inch)
มันเปรียบเหมือนกรอบภาพที่จะขึงขนาดของภาพของคุณให้เท่ากับขนาดหน้าจอ ถ้าเอาวีดีโอ 720p (HD Ready) ไปแสดงผลบนหน้าจอขนาด 55 นิ้วมันย่อมแตก เห็นเม็ดพิ๊กเซล ยิ่งเมื่อเทียบกับ 4K
กลับกัน เอา 4K ไปแสดงผลบนหน้าจอหน้า 8 นิ้ว (สมมุติว่ามันแสดงผลได้) สายตาก็ไม่สามารถแยกความแตกต่างกับ 720p หรือ 1080p อีกอยู่ดี เพราะว่าขนาดหน้าจอมันเล็กมากเกินไป
จำง่ายๆ ก็คือ ยิ่ง Resolution เยอะ มันจะยิ่งควรมาพร้อมกับหน้าจอแสดงผลที่ใหญ่ตามไปด้วย ถ้าเล่นเกมที่ 3840 x 2160 บนหน้าจอแค่ 20" (สมมุติว่ามี/มันแสดงผลได้) ก็บอกได้เลยว่าไม่เต็มประสิทธิภาพ แต่ด้วยว่าธรรมชาติของการใช้คอมพ์เรานั่งใกล้หน้าจอมาก เลยทำให้ยังพอได้อรรถรส
พวกค่ายมือถือนี่ตัวดีเลย คุยเรื่องหน้าจอ Full HD ที่ขนาดแค่ 5 นิ้ว จะบ้าตาย ด้วยขนาดหน้าจอแค่นั้น 720p กับ 1080p มันไม่ต่างกันเลย ความต่างมันระดับ... อณู จุลภาค อะไรทำนองนั้น (คำณวน resolution x ขนาดหน้าจอแล้วได้ประมาณ 440ppi)
*วิทยาศาสตร์: สายตาคนเราสามรถแยกแยะความละเอียดได้สูงสุดที่ประมาณ 300ppi (pixel per inch)
เอา TV มาใช้งานแทนจอคอมพ์ได้หรือไม่ ดีมั้ย?
สมมุติ TV 40 นิ้ว แสดงผลที่ 1080p VS PC Monitor 27 นิ้ว แสดงผลที่ 1080p
คำตอบคือ ขึ้นอยู่กับว่าใช้งานอะไร จะเห็นว่ามันแสดงผลได้เท่ากันเป๊ะ แต่บนขนาดหน้าจอที่ต่างกัน ดังนั้น บนทีวี ภาพมันจะแตกกว่า monitor แต่ก็จะไม่เป็นปัญหาเลยถ้าใช้ในด้าน entertainment ทั่วไป ดูหนัง, เล่นเกม, youtube
แต่ ถ้าใช้อ่านหนังสือ พิมพ์งาน หรืออะไรที่ต้องการความละเอียดเยอะๆ ก็ควรใช้ monitor ที่ขนาดเล็กกว่า บีบอัด resolution ลงมาละเอียดกว่านั่นเอง
ง่ายๆ คือ pixel density (ppi) เยอะๆ เหมาะกับการอ่านหนังสือ พิมพ์งาน (ตัวอักษรไม่แตก) และน้อยลงกับงานด้านความบันเทิง ดูหนัง เล่นเกม ฯลฯ
อนึ่ง อย่าลืมว่า "ระยะห่าง" ระหว่างผู้ใช้กับหน้าจอก็สำคัญ ยิ่งนั่งใกล้ก็ยิ่งเห็นความแตกต่างของ resolution ได้มาก ยิ่งไกลก็ยิ่งแยกไม่ออก ให้เปิด 4K บนทีวี 40 นิ้วแต่ดูห่าง 8 เมตรก็แยกไม่ออกว่ามัน Full HD หรือว่า 4K กันแน่
ต่อมา ตัวอุปกรณ์ (การ์ดจอ, เครื่องเล่นเกม) ปล่อย resolution ออกมาที่เท่าไหร่ ซึ่งก็แน่นอนว่าถ้ามันปล่อยออกมาชัด หรือ resolution มากกว่าที่หน้าจอ/ทีวี จะแสดงผลได้ ก็ไร้ประโยชน์ เพราะจอก็จะแสดงผลแค่ตามที่มันทำได้
ให้เอา PC กับการ์ดจอแรงๆ ไปต่อ TV Full HD 1080p แล้วปล่อย resolution ที่ 3840 x 2160 ออกมาก็เงิบ ไร้ประโยชน์ เพราะจอมันแสดงผลแค่ที่ 1080p เท่านั้นนั่นเอง
ดังนั้น จะเห็นว่า Resolution ของหน้าจอที่เราจะใช้นั้นสำคัญมาก เพราะมันแสดงผลที่ต่ำกว่าได้ แต่สูงกว่านั้นไม่ได้ จะไปจัด GTX970 แต่แสดงผลบนมอร์นิเตอร์ 1080p ก็เสียประสิทธิภาพไปบานตะเกียง
Frame Per Second หรือ FPS คือ "จำนวนภาพที่แสดงผลใน 1 วินาที" ยิ่งมากยิ่ง smooth ลื่นไหลดุจใช้ซันซิลค์
ธรรมชาติ วีดีโอยิ่งละเอียดมาก resolution ยิ่งสูง ยิ่งต้องใช้กำลังในการประมวลผลเยอะ ทำให้สามารถแสดงผลที่ FPS ได้น้อยลง
จึงเกิดคำถามว่า fps เท่าไหร่ถึงดี หรือสายตาคนเรามองได้แค่ไหน ตอบ
"ขึ้นอยู่ลักษณะหรือความเร็วของวีดีโอ motion นั้นที่คุณดู"
ถ้าเป็น "ภาพนิ่ง" ให้ 1 FPS vs 100 FPS ก็เท่านั้น ก็มันไม่เคลื่อนไหวนี่นา ถูกต้อง
กลับกัน เฟรมเรท หรือ FPS ยิ่งสูง จะสังเกตุได้ก็ต่อเมื่อดูกับภาพที่เคลื่อนไหวเร็วๆ ตามไปด้วย
ถ้า motion นั้นเคลื่อนไหวเร็ว แต่ fps น้อย มันก็จะเกิดเงา เบลอ หรือ ghost
ในทางกลับกัน ต่อให้มีหน้าจอ 120MHz (ซึ่งแสดงผลได้สูงสุด 120fps) กับการ์ดจอที่ปล่อยภาพที่ 100+fps แต่วีดีโอที่แสดง เป็นแค่คนเดินเนิบนาบๆ มันก็จะไม่ได้ต่างไปจากดู 60fps
แต่แน่นอน ถ้าเป็นภาพเร็วๆ เป็นรถแข่ง F1 หรือฉากต่อสู้เร็วๆ รัวๆ ดุเดือดๆ 60fps ทำได้ดีกว่า 30fps ฉันท์ใด 120fps ก็ทำได้ดีกว่า 60fps ฉันท์นั้น นั่นล่ะครับ
*TV 4K หลายๆ เครื่องในปัจจุบันจะแสดงภาพ 4K ได้ที่แค่ 30MHz หรือ 30fps เท่านั้น เช็คสเปคให้ดีก่อนซื้อนะครับ
แต่ตรงนี้ เป็นเรื่องของ PC แล้ว เพราะสัญญานภาพอื่นๆ ในโลกล้วนแสดงผลที่:
24fps (Film)
30fps (วีดีโอส่วนใหญ่ทั่วไป, ละคร, ข่าว, youtube)
และ 60fps (PS4, วีดีโอจากกล้องรุ่นใหม่ๆ)
ส่วนคำถามที่ว่า "สายตาคนเราสามารถมอง fps ได้สูงสุดที่เท่าไหร่" ตอบว่า อ้างอิงจากสายตานักบินสหรัฐฯที่มีการทดลองมา ได้ที่ 220fps
อย่างไรก็ดี สายตาคนทั่วๆ ไปที่ไม่ได้คลุกคลีกับงานด้านนี้ พ่อบ้านแม่บ้าน คุณตาคุณยาย แค่ 30 กับ 60fps ก็แทบแยกไม่ออกแล้วครับ
สวัสดีครับ