เมื่อ Apple เปิดตัวระบบปฏิบัติการใหม่ของ iPhone iOS 11 แสดงให้เห็นอัลกอริทึมการเรียนรู้ของเครื่องที่ชาญฉลาดขึ้นซึ่งสามารถจัดเรียงภาพโดยอัตโนมัติโดยใช้การจดจำวัตถุ มันไม่ได้พูดอะไรเกี่ยวกับความแตกแยก
optad_b
เมื่อวันจันทร์ที่ผ่านมาผู้ใช้หลายคนบน Twitter ได้ค้นพบหมวดหมู่ Memories ใหม่ที่เรียกว่า“ บราเซียร์” (คำที่เรียกว่า“ บรา”) ซึ่งตรงตามที่ชื่อแนะนำ: จัดเรียงรูปริสกีทั้งหมดของคุณลงในโฟลเดอร์ NSFW
การค้นพบนี้ทำให้เกิดความกังวลเรื่องความเป็นส่วนตัวโดยผู้ใช้บางคนกังวลอย่างเข้าใจว่า Apple อาจบันทึกภาพเหล่านี้
https://twitter.com/Sophiejade98_/status/925040717348659200
โชคดีที่อัลกอริทึมที่ Apple ใช้ทำงานบนอุปกรณ์ของคุณซึ่งหมายความว่าไม่จำเป็นต้องส่งรูปภาพใด ๆ ไปยังเซิร์ฟเวอร์คลาวด์ เทคโนโลยีการมองเห็นด้วยคอมพิวเตอร์ได้รับการออกแบบมาเพื่อให้ผู้ใช้สามารถดูภาพทั้งหมดที่อยู่ในหมวดหมู่เดียวกันได้อย่างรวดเร็วในคราวเดียว ตัวอย่างเช่นหากคุณพิมพ์คำว่า 'สุนัข' คุณจะเห็นภาพทั้งหมดที่คุณถ่ายไว้ตั้งแต่สัตว์เลี้ยงของคุณยังเป็นลูกสุนัขแทนที่จะต้องเลื่อนดูทั้งแกลเลอรี Apple ใช้คีย์เวิร์ดหมวดหมู่ต่างๆ 4,432 รายการในการจัดระเบียบรูปภาพ
คุณจะพบโฟลเดอร์ที่เต็มไปด้วยภาพเปลือยและภาพกึ่งเปลือยในแอปรูปภาพหากคุณใช้ iOS 10 หรือใหม่กว่า เฟดเดอร์ ซึ่งเป็นครั้งแรกที่รายงานคุณลักษณะที่น่าขนลุกกล่าวว่าไม่พบหัวข้อใด ๆ ที่เทียบเท่ากับผู้ชายเช่น 'ชุดชั้นใน' หรือ 'นักมวย' แต่ iPhone จะกรอง 'ฝักบัว' 'อาบแดด' และ 'อ่างอาบน้ำ' เราควรทราบว่าอุปกรณ์ Android จะกรองภาพซนลงในโฟลเดอร์ด้วย ในความเป็นจริงหมวดหมู่ของมันมีความสำคัญมากกว่าด้วยซ้ำ ฉันทดสอบคำศัพท์สองสามคำใน Galaxy Note 8 และสังเกตเห็นว่ามีการค้นหารูปภาพเมื่อฉันใช้คำว่า“ บรา”“ กางเกงใน” และ“ กางเกงใน”
ผู้ใช้หลายคนใช้โซเชียลมีเดียเพื่ออวดสิ่งที่พบในโฟลเดอร์ ผลลัพธ์มีตั้งแต่ภาพถ่ายชุดว่ายน้ำไปจนถึงภาพที่มีความเหมาะสมน้อยกว่ามาก คนอื่น ๆ อยู่ห่างจากเครื่องหมาย
สิ่งที่ดีที่สุดที่จะได้รับจากการค้นพบ 'บราเซียร์' นี้คือตอนนี้ผู้คนเริ่มตระหนักถึงคุณลักษณะการกรองซึ่งหมายถึงภาพสุนัขมากขึ้น
https://twitter.com/lowdwi/status/925087690546208768
https://twitter.com/maddyquark/status/925087845689298944
เราได้ติดต่อ Apple เพื่อเรียนรู้เพิ่มเติมเกี่ยวกับคุณสมบัตินี้
H / T เฟดเดอร์