iOS 18.4 ได้ขยายฟีเจอร์ Visual Intelligence ให้รองรับ iPhone อีก 3 รุ่น จากเดิมที่จำกัดเฉพาะ iPhone 16, iPhone 16 Plus, iPhone 16 Pro และ iPhone 16 Pro Max ก่อนจะรองรับ iPhone 15 Pro, iPhone 15 Pro Max และ iPhone 16e
ฟีเจอร์ Visual Intelligence ถูกปล่อยออกมาครั้งแรกใน iOS 18.2 และใช้ได้เฉพาะ iPhone 16 Series ที่มีปุ่ม Camera Control เท่านั้น แต่ด้วย iOS 18.4 ได้ขยายให้รองรับ iPhone 15 Pro, iPhone 15 Pro Max และ iPhone 16e โดยใช้ปุ่ม Action หรือเรียกผ่านหน้าจอ Lock Screen และ Control Center
ฟีเจอร์ Visual Intelligence เป็นส่วนหนึ่งของ Apple Intelligence ช่วยอำนวยความสะดวกให้กับผู้ใช้งานที่ต้องการหาข้อมูลเกี่ยวกับสิ่งต่างๆ ที่อยู่รอบตัว เพียงเปิดกล้องแล้วเล็งไปที่สิ่งนั้น ตัวอย่างเช่น เมื่อเล็งกล้องไปที่ร้านอาหารที่อยู่ตรงหน้า ฟีเจอร์ Visual Intelligence จะสามารถบอกเวลาเปิดทำการ รวมถึงรีวิวร้านค้านั้น
นอกจากนี้ Visual Intelligence ยังสามารถสรุปและคัดลอกข้อความ แปลข้อความ ตรวจหาหมายเลขโทรศัพท์หรือที่อยู่อีเมล พร้อมตัวเลือกในการเพิ่มลงในรายชื่อ ระบุชนิดของสัตว์หรือพันธุ์พืช และยังช่วยให้ผู้ใช้งานค้นหา Google เพื่อดูว่าจะซื้อสิ่งนั้นได้จากที่ไหน
อย่างไรก็ตาม การเพิ่มฟีเจอร์ Visual Intelligence ให้กับ iPhone เป็นเพียงจุดเริ่มต้นเท่านั้น
Mark Gurman จากสำนักข่าว Bloomberg อ้างว่า Apple ต้องการให้ Visual Intelligence เป็นฟีเจอร์หลักกับอุปกรณ์ในอนาคต ไม่จำกัดเฉพาะ iPhone แต่จะรวมถึง AirPods และ Apple Watch ด้วยการติดตั้งกล้องให้กับอุปกรณ์เหล่านี้
นักข่าวจาก Bloomberg กล่าวว่า Apple กำลังพิจารณาเพิ่มกล้องให้กับ Apple Watch รุ่น Ultra รวมถึงรุ่นมาตรฐาน ซึ่งอาจมีเลนส์ด้านหน้าอยู่ภายในจอแสดงผล ในขณะที่ Ultra อาจเพิ่มลนส์อยู่ด้านข้าง ใกล้กับ Digital Crown
การติดกล้องให้กับ Apple Watch จะข่วยให้นาฬิกาของ Apple มองเห็นโลกภายนอก เพื่อใช้ในการส่งข้อมูลโดยละเอียดที่ช่วยปรับปรุงการค้นหาได้ ซึ่งฟังดูคล้ายกับฟีเจอร์ Visual Intelligence ที่ปัจจุบันมีใช้แล้วใน iPhone รุ่นใหม่ๆ
ที่มา – 9to5Mac