Apple บาคาร่าบริษัทที่ยกย่องความเป็นส่วนตัวของผู้ใช้อย่างภาคภูมิใจในตัวอย่าง iOS 15ล่าสุด เพิ่งเปิดตัวฟีเจอร์ที่ดูเหมือนว่าจะขัดกับหลักความเป็นส่วนตัวอันดับแรก: ความสามารถในการสแกนภาพถ่าย iPhone และแจ้งเตือนเจ้าหน้าที่หากมี สื่อการล่วงละเมิดทางเพศเด็ก (CSAM) แม้ว่าการต่อสู้กับการล่วงละเมิดทางเพศเด็กจะเป็นเรื่องดี แต่ผู้เชี่ยวชาญด้านความเป็นส่วนตัวกลับไม่ตื่นเต้นกับวิธีที่ Apple เลือกทำ
ฟีเจอร์การสแกนใหม่นี้ทำให้ลูกค้าของ Apple หลายคนสับสนและทำให้พนักงานหลายคนไม่พอใจ บางคนบอกว่ามันสร้างประตูหลังให้กับอุปกรณ์ Apple ซึ่งเป็นสิ่งที่บริษัทสาบานว่าจะไม่ทำ ดังนั้น Apple ได้ทำทัวร์ควบคุมความเสียหายเล็กน้อยในช่วงสัปดาห์ที่ผ่านมา โดยยอมรับว่าการส่งข้อความเริ่มต้นนั้นไม่ค่อยดีนักในขณะที่ปกป้องและพยายามอธิบายเทคโนโลยีของตนให้ดีขึ้น ซึ่งยืนยันว่าไม่ใช่ประตูหลัง แต่จริงๆ แล้วดีกว่าสำหรับผู้ใช้ ‘ ความเป็นส่วนตัวมากกว่าวิธีที่บริษัทอื่นใช้ในการค้นหา CSAM
“การขยายความคุ้มครองสำหรับเด็ก”
ใหม่ของ Apple อาจไม่เลวร้ายอย่างที่คิดหากบริษัทรักษาสัญญา แต่ก็ยังเป็นอีกสิ่งหนึ่งที่เตือนใจว่าเราไม่ได้เป็นเจ้าของข้อมูลหรืออุปกรณ์ของเราแม้แต่สิ่งที่เรามีอยู่จริง คุณสามารถซื้อ iPhone ในราคาจำนวนมาก ถ่ายรูปกับมัน และใส่ไว้ในกระเป๋าของคุณ จากนั้น Apple สามารถเปรียบเปรยเข้าไปในกระเป๋าเสื้อนั้นและเข้าไปใน iPhone เครื่องนั้นเพื่อให้แน่ใจว่ารูปภาพของคุณถูกกฎหมาย
มาตรการคุ้มครองเด็กของ Apple อธิบาย
ในช่วงต้นเดือนสิงหาคม Apple ประกาศว่าเทคโนโลยีใหม่ในการสแกนรูปภาพสำหรับ CSAM จะได้รับการติดตั้งในอุปกรณ์ของผู้ใช้ด้วยการอัปเดต iOS 15 และ macOS Monterey ที่กำลังจะมีขึ้น การสแกนรูปภาพสำหรับ CSAM ไม่ใช่เรื่องใหม่ Facebook และGoogleสแกนรูปภาพที่อัปโหลดไปยังแพลตฟอร์มของตนมาหลายปีแล้ว และ Apple ก็สามารถเข้าถึงรูปภาพที่อัปโหลดไปยังบัญชี iCloud ได้แล้ว การสแกนรูปภาพที่อัปโหลดไปยัง iCloud เพื่อระบุ CSAM จะสมเหตุสมผลและสอดคล้องกับคู่แข่งของ Apple
แต่ Apple กำลังทำสิ่งที่แตกต่างออกไปเล็กน้อย บางอย่างที่รู้สึกรุกรานมากกว่า แม้ว่าบริษัทจะกล่าวว่าไม่ควรเป็นเช่นนั้น การสแกนรูปภาพจะเกิดขึ้นในอุปกรณ์เอง ไม่ใช่บนเซิร์ฟเวอร์ที่คุณอัปโหลดรูปภาพ Apple ยังบอกด้วยว่าจะใช้เครื่องมือใหม่ในแอป Message ที่สแกนรูปภาพที่ส่งไปยังหรือจากเด็กเพื่อหาภาพทางเพศ พร้อมตัวเลือกในการบอกผู้ปกครองของเด็กอายุต่ำกว่า 12 ปีหากพวกเขาดูภาพเหล่านั้น ผู้ปกครองสามารถเลือกใช้คุณสมบัติเหล่านั้น และการสแกนทั้งหมดจะเกิดขึ้นบนอุปกรณ์
In early morning darkness, a long line of people, several children among them, wait by a tall brown wall outdoors, while uniformed Border Patrol officers talk to those in the front.
ตามจริงแล้ว บริษัทหนึ่งที่มีจุดยืนที่ไม่เป็น ที่รู้จักในวงกว้างต่อข้อเรียกร้องของ FBI ในการสร้างประตูหลังให้กับโทรศัพท์ของผู้ต้องสงสัยว่าเป็นผู้ก่อการร้าย ดูเหมือนจะสร้างประตูหลัง ไม่ชัดเจนในทันทีว่าทำไม Apple ถึงดำเนินการในลักษณะนี้ในขณะนี้ แต่อาจมีบางอย่างที่เกี่ยวข้องกับกฎหมายที่รอดำเนินการในต่างประเทศและกฎหมายที่อาจเกิดขึ้นในสหรัฐอเมริกา ปัจจุบัน บริษัทต่างๆ อาจถูกปรับสูงถึง $300,000 หากพบ CSAM แต่ไม่รายงานต่อเจ้าหน้าที่ แม้ว่าบริษัทจะไม่ต้องค้นหา CSAM
หลังจากแบ็คแลชหลังจากประกาศเปิดตัวคุณสมบัติ
ใหม่เมื่อวันอาทิตย์ที่ผ่านมา Apple ได้เปิดเผยคำถามที่พบบ่อยพร้อมรายละเอียดที่ชัดเจนเกี่ยวกับวิธีการทำงานของเทคโนโลยีการสแกนบนอุปกรณ์ โดยพื้นฐานแล้ว Apple จะดาวน์โหลดฐานข้อมูลของภาพ CSAM ที่รู้จักจาก National Center for Missing and Exploited Children (NCMEC) ไปยังอุปกรณ์ทั้งหมดของบริษัท CSAM ถูกแปลงเป็นสตริงตัวเลขดังนั้นรูปภาพจะไม่ถูกดาวน์โหลดลงในอุปกรณ์ของคุณ เทคโนโลยีของ Apple จะสแกนรูปภาพในคลังรูปภาพ iCloud ของคุณและเปรียบเทียบกับฐานข้อมูล หากพบจำนวนที่ตรงกัน (Apple ไม่ได้ระบุว่าตัวเลขนั้นคืออะไร) เจ้าหน้าที่จะตรวจสอบแล้วรายงานไปที่ NCMEC ซึ่งจะนำมาจากที่นั่น ไม่ได้วิเคราะห์รูปภาพเพื่อค้นหาสัญญาณว่าอาจมี CSAM เช่นเดียวกับเครื่องมือข้อความที่ดูเหมือนจะทำ มันแค่มองหาแมตช์กับ CSAM ที่รู้จัก
“แบ็คดอร์ที่ได้รับการจัดทำเป็นเอกสารอย่างละเอียด รอบคอบ และมีขอบเขตแคบยังคงเป็นแบ็คดอร์”
นอกจากนี้ Apple ยังระบุว่าจะสแกนเฉพาะรูปภาพที่คุณเลือกอัปโหลดไปยังรูปภาพ iCloud หากคุณปิดใช้งานรูปภาพ iCloud ระบบจะไม่สแกนรูปภาพของคุณ ย้อนกลับไปในปี 2018 CNBC รายงานว่ามีผู้ใช้ iCloud ประมาณ 850 ล้านคน โดย 170 ล้านคนจ่ายเงินสำหรับความจุเพิ่มเติม (Apple ให้ผู้ใช้ iPhone ทุกคนมีพื้นที่เก็บข้อมูลบนคลาวด์ 5 GB ฟรี) ผู้คนจำนวนมากอาจได้รับผลกระทบที่นี่
Apple กล่าวว่าวิธีนี้มี “ประโยชน์ด้านความเป็นส่วนตัวอย่างมีนัยสำคัญ” มากกว่าการสแกนรูปภาพหลังจากที่อัปโหลดไปยัง iCloud แล้ว ไม่มีอะไรออกจากอุปกรณ์หรือ Apple มองเห็นได้ เว้นแต่จะมีการจับคู่ Apple ยังยืนยันว่าจะใช้เฉพาะฐานข้อมูล CSAM และปฏิเสธคำขอของรัฐบาลในการเพิ่มเนื้อหาประเภทอื่นๆ ลงในฐานข้อมูล
ทำไมผู้เชี่ยวชาญด้านความเป็นส่วนตัวและความปลอดภัยบางคนถึงไม่ตื่นเต้น
แต่ผู้สนับสนุนด้านความเป็นส่วนตัวคิดว่าคุณลักษณะใหม่นี้จะเปิดประตูสู่การละเมิด ตอนนี้ Apple ได้พิสูจน์แล้วว่าสามารถทำเช่นนี้ได้สำหรับบางภาพ เกือบจะแน่นอนว่าจะต้องทำเพื่อรูปภาพอื่น มูลนิธิ Electronic Frontier Foundation มองเห็นอนาคตได้ง่าย ๆ ที่รัฐบาลกดดันให้ Apple สแกนอุปกรณ์ของผู้ใช้เพื่อหาเนื้อหาที่ประเทศของตนผิดกฎหมาย ทั้งในคลังรูปภาพ iCloud บนอุปกรณ์และในข้อความของผู้ใช้
“นั่นไม่ใช่ทางลาดชัน นั่นคือระบบที่สร้างขึ้นโดยสมบูรณ์เพียงแค่รอแรงกดดันจากภายนอกเพื่อทำการเปลี่ยนแปลงเพียงเล็กน้อย” EFF กล่าว “สุดท้ายแล้ว แม้แต่แบ็คดอร์ที่ได้รับการจดบันทึกอย่างละเอียด รอบคอบ และมีขอบเขตแคบก็ยังเป็นแบ็คดอร์”
ศูนย์เพื่อประชาธิปไตยและเทคโนโลยีกล่าวในแถลงการณ์ของ Recode ว่าเครื่องมือใหม่ของ Apple นั้นมีความเกี่ยวข้องอย่างยิ่งและแสดงถึงการเปลี่ยนแปลงที่น่าตกใจจากจุดยืนด้านความเป็นส่วนตัวก่อนหน้านี้ของบริษัท หวังว่า Apple จะพิจารณาการตัดสินใจอีกครั้ง
“Apple จะไม่เสนอข้อความเข้ารหัสแบบ end-to-end
อย่างสมบูรณ์ผ่าน iMessage อีกต่อไป และจะบ่อนทำลายความเป็นส่วนตัวที่เสนอก่อนหน้านี้สำหรับการจัดเก็บภาพถ่ายของผู้ใช้ iPhone” CDT กล่าว
Will Cathcart หัวหน้าฝ่ายบริการส่งข้อความเข้ารหัสของ Facebook WhatsApp ทำลายมาตรการใหม่ของ Apple ในเธรด Twitter:
(Facebook และ Apple ขัดแย้งกันตั้งแต่ Apple เปิดตัวคุณสมบัติต่อต้านการติดตามในระบบปฏิบัติการมือถือ ซึ่ง Apple กำหนดกรอบวิธีการปกป้องความเป็นส่วนตัวของผู้ใช้จากบริษัทที่ติดตามกิจกรรมของพวกเขาในแอพต่างๆ โดยเฉพาะ Facebook คุณลองนึกภาพออก ว่าผู้บริหาร Facebook ค่อนข้างพอใจสำหรับโอกาสที่จะชั่งน้ำหนักในประเด็นความเป็นส่วนตัวของ Apple)
และเอ็ดเวิร์ด สโนว์เดน ได้แสดงความคิดของเขาในรูปแบบมีม:
ผู้เชี่ยวชาญบางคนคิดว่าการเคลื่อนไหวของ Apple อาจเป็นสิ่งที่ดี – หรืออย่างน้อยก็ไม่แย่อย่างที่คิด บล็อกเกอร์ด้านเทคโนโลยี John Gruber สงสัยว่าสิ่งนี้จะทำให้ Apple สามารถเข้ารหัสข้อมูลสำรอง iCloud ได้อย่างสมบูรณ์จากการเฝ้าระวังของรัฐบาลในขณะที่ยังสามารถบอกได้ว่ากำลังตรวจสอบเนื้อหาของผู้ใช้สำหรับ CSAM
“หากคุณสมบัติเหล่านี้ทำงานตามที่อธิบายไว้และ ตามที่อธิบายไว้ เท่านั้นก็แทบไม่มีเหตุให้ต้องกังวล” Gruber เขียนโดยยอมรับว่ายังมี “ข้อกังวลที่ถูกต้องตามกฎหมายโดยสมบูรณ์จากผู้เชี่ยวชาญที่น่าเชื่อถือว่าคุณลักษณะดังกล่าวอาจถูกนำไปใช้ในทางที่ผิดหรือนำไปใช้ในทางที่ผิดได้อย่างไรในอนาคต”
Ben Thompson จาก Stratechery ชี้ให้เห็นว่านี่อาจเป็นแนวทางของ Apple ในการก้าวนำหน้ากฎหมายที่อาจเป็นไปได้ในยุโรป ซึ่งกำหนดให้ผู้ให้บริการอินเทอร์เน็ตต้องมองหา CSAM บนแพลตฟอร์มของตน ฝ่ายนิติบัญญัติของสหรัฐฯ ได้พยายามที่จะผ่านกฎหมายของตนเองซึ่งควรจะต้องใช้บริการอินเทอร์เน็ตเพื่อตรวจสอบแพลตฟอร์มของตนสำหรับ CSAM มิฉะนั้นจะสูญเสีย การคุ้มครอง ตามมาตรา 230 ไม่น่าเชื่อว่าพวกเขาจะรื้อฟื้นร่างกฎหมายนั้นหรือสิ่งที่คล้ายกันในรัฐสภานี้
หรือแรงจูงใจของ Apple อาจง่ายกว่า เมื่อ 2 ปีที่แล้ว New York Times วิจารณ์ Apple และบริษัทเทคโนโลยีอื่นๆ ว่าไม่ได้พยายามสแกนบริการของตนเพื่อหา CSAM และดำเนินการตามมาตรการต่างๆ เช่น การเข้ารหัส ซึ่งทำให้การสแกนดังกล่าวเป็นไปไม่ได้ และ CSAM ยากขึ้น ตรวจจับ. อินเทอร์เน็ตถูก “บุกรุก” ด้วย CSAM แล้ว Times กล่าว
ความพยายามของ Apple ในการอธิบายมาตรการคุ้มครองเด็กอีกครั้ง
เมื่อวันศุกร์ที่ผ่านมาReuters รายงานว่า Slack ภายในของ Apple มีข้อความหลายร้อยข้อความจากพนักงานของ Apple ที่กังวลว่าเครื่องสแกน CSAM อาจถูกโจมตีโดยรัฐบาลอื่น ๆ รวมถึงชื่อเสียงด้านความเป็นส่วนตัวที่ได้รับความเสียหาย มีการผลักดัน PR ใหม่จาก Apple ตามมา Craig Federighi หัวหน้าฝ่ายวิศวกรรมซอฟต์แวร์ของ Apple ได้พูดคุยกับ Wall Street Journal ในวิดีโอที่สร้าง มาอย่างลื่นไหล จากนั้น Apple ได้เปิดตัวการตรวจสอบแบบจำลองภัยคุกคามด้านความปลอดภัยสำหรับคุณลักษณะด้านความปลอดภัยสำหรับเด็ก ซึ่งมีรายละเอียดใหม่บางอย่างเกี่ยวกับกระบวนการและวิธีที่ Apple มั่นใจได้ ใช้เพื่อวัตถุประสงค์ที่ตั้งใจไว้เท่านั้น
ไปเลย: ฐานข้อมูลจะถูกจัดเตรียมโดยหน่วยงานด้านความปลอดภัยสำหรับเด็กที่ไม่ใช่รัฐบาลอย่างน้อยสองแห่ง เพื่อป้องกันไม่ให้รัฐบาลแทรกรูปภาพที่ไม่ใช่ CSAM แต่เพื่อที่พวกเขาอาจต้องการสแกนโทรศัพท์ของพลเมืองของตน Apple คิดว่าสิ่งนี้เมื่อรวมกับการปฏิเสธที่จะปฏิบัติตามข้อเรียกร้องของรัฐบาลใด ๆ ที่ระบบจะใช้สำหรับทุกสิ่งยกเว้น CSAM และข้อเท็จจริงที่ว่าการแข่งขันจะถูกตรวจสอบโดยพนักงานของ Apple ก่อนที่จะรายงานให้ผู้อื่นทราบ จะเป็นการป้องกันที่เพียงพอ ผู้ใช้ถูกสแกนและลงโทษเพื่ออะไรก็ตาม ยกเว้น CSAM
Apple ยังต้องการชี้แจงด้วยว่าจะมีรายการสาธารณะของแฮชฐานข้อมูลหรือสตริงตัวเลขที่เจ้าของอุปกรณ์สามารถตรวจสอบได้เพื่อให้แน่ใจว่าเป็นฐานข้อมูลที่วางไว้บนอุปกรณ์ของพวกเขาหากพวกเขากังวลว่าผู้กระทำผิดได้สร้างความแตกต่าง ฐานข้อมูลบนโทรศัพท์ของพวกเขา ซึ่งจะทำให้บุคคลที่สามที่เป็นอิสระตรวจสอบแฮชฐานข้อมูลได้เช่นกัน สำหรับที่มาของฐานข้อมูลนั้น Apple กล่าวว่าฐานข้อมูลนั้นต้องจัดเตรียมโดยองค์กรความปลอดภัยเด็กสองแห่งที่แยกจากกันซึ่งอยู่ในเขตอำนาจศาลที่แยกจากกันสองแห่ง และเฉพาะภาพที่ทั้งสองหน่วยงานมีเท่านั้นที่จะเข้าสู่ฐานข้อมูล เชื่อว่าสิ่งนี้จะป้องกันไม่ให้องค์กรความปลอดภัยเด็กแห่งหนึ่งจัดหาภาพที่ไม่ใช่ CSAM
Apple ยังไม่ได้ระบุแน่ชัดว่าฟีเจอร์ CSAM จะเปิดตัวเมื่อใด ดังนั้นมันจึงยังไม่อยู่ในอุปกรณ์ของคุณ สำหรับจำนวน CSAM ที่ตรงกับเทคโนโลยีที่จะทำก่อนที่จะส่งต่อไปยังผู้ตรวจสอบที่เป็นมนุษย์ (“เกณฑ์”) บริษัท ค่อนข้างมั่นใจว่าจะเป็น 30 แต่ตัวเลขนี้ยังสามารถเปลี่ยนแปลงได้
ทั้งหมดนี้ดูเหมือนสร้างความมั่นใจ และดูเหมือนว่า Apple จะคิดหาวิธีที่การสแกนรูปภาพในอุปกรณ์อาจถูกละเมิดและวิธีป้องกัน เป็นเรื่องเลวร้ายเกินไปที่บริษัทไม่ได้คาดหวังให้ดีว่าจะได้รับการประกาศครั้งแรกอย่างไร
แต่สิ่งหนึ่งที่ Apple ยังไม่ได้พูดถึง — อาจเป็นเพราะมันทำไม่ได้ — ก็คือผู้คนจำนวนมากไม่สบายใจกับแนวคิดที่ว่าบริษัทสามารถตัดสินใจได้ว่าจะใส่เทคโนโลยีเข้าไปในอุปกรณ์ที่สแกนข้อมูลในวันหนึ่ง พวกเขาถือว่าเป็นเรื่องส่วนตัวและละเอียดอ่อน ใช่ บริการอื่นๆ จะสแกนรูปภาพของผู้ใช้เพื่อหา CSAM เช่นกัน แต่การทำบนอุปกรณ์นั้นเป็นบรรทัดฐานที่ลูกค้าจำนวนมากไม่ต้องการหรือคาดหวังให้ Apple ข้ามไป ท้ายที่สุดแล้ว Apple ใช้เวลาหลายปีในการโน้มน้าวใจพวกเขาว่าจะไม่มีวันทำแบบนั้นบาคาร่า / 10 อันดับ / กล้องถ่ายรูป 2022