PhotoDNA

Vikipediya, azad ensiklopediya
Naviqasiyaya keç Axtarışa keç

PhotoDNA — onlayn xidmət təminatçıları tərəfindən geniş istifadə olunan[1][2] özəl şəklin müəyyənləşdirilməsi və məzmunun filtrasiyası texnologiyası.[3]

PhotoDNA 2009-cu ildə Microsoft Research və Dartmut Kollecinin professoru Heni Farid tərəfindən hazırlanmışdır. Mövcud şəkillərin və video faylların verilənlər bazasından o, hər bir təsviri təmsil etmək üçün unikal heşlər yaradır, beləliklə daha sonra həmin şəkillərin digər versiyalarını müəyyən etmək üçün istifadə oluna bilir.[4] Heşinq metodu əvvəlcə şəkilləri ağ-qara formata çevirməyə, onları kvadratlara bölməyə və kvadratların kölgəsini ölçməyə əsaslanırdı.[5] Sifətin tanınması texnologiyasından istifadə etmirdi, nə də təsvirdəki insanı və ya obyekti müəyyən edə bilmirdi. Metod, ölçüsünün dəyişdirilməsi və kiçik rəng dəyişiklikləri də daxil olmaqla, təsvirdəki dəyişikliklərə davamlı olmağa çalışırdı.[4] 2015-ci ildən bu yana oxşar üsullar videofayllardakı fərdi video kadrlar üçün istifadə olunur.[6][7]

Microsoft, İtkin düşən və İstismar Edilən Uşaqlar üçün Beynəlxalq Mərkəz (ICMEC) tərəfindən idarə olunan və dəstəklənən və fərdi fotoşəkili unikal şəkildə müəyyən etmək üçün istifadə edilə bilən[8][9] "barmaq izlərini" saxlamaqla rəqəmsal kriminalistika əməliyyatlarının bir hissəsi kimi istifadə edilən[8][10] PhotoDNA texnologiyasını Project VIC-ə ianə edib. Verilənlər bazasına milyonlarla element üçün heş mövcuddur.

2014-cü ilin dekabrında Microsoft PhotoDNA-nı Azure Marketplace vasitəsilə pulsuz olaraq xidmət kimi proqram təminatı olaraq ixtisaslı təşkilatlara təqdim etməyə başlayıb.[11]

2010 və 2020-ci illərdə PhotoDNA, ABŞ Senatının dinləmələri və vətəndaş cəmiyyəti tərəfindən "yükləmə filtrləri" adlandırılan Avropa Komissiyasının müxtəlif təklifləri,[12][13] məsələn, könüllü kodlar, müəllif hüquqları qanunvericiliyi, terrorizmlə bağlı qaydalar[14] və internet telefon dinləmə qaydaları kimi müxtəlif məzmunun moderasiyası və internet senzurası ilə bağlı siyasət təklifləri ilə birlikdə irəli sürülüb.[15]

2016-cı ildə Heni Farid texnologiyanın istifadəsini terrorizmlə əlaqəli məzmunda genişləndirməyi təklif etdi.[16] 2016-cı ilin dekabrında Facebook, Twitter, Google və Microsoft PhotoDNA-dan terroristlərin təlimi videoları və ya zorakı terror görüntüləri kimi ekstremist məzmunu silmək üçün istifadə etməyi planlaşdırdıqlarını elan etdilər.[17] 2018-ci ildə Facebook, Əl-Qaidə videolarını avtomatik silmək üçün PhotoDNA-dan istifadə etdiyini bildirdi.[18]

2019-cu ilə qədər Microsoft, Facebook və Google da daxil olmaqla böyük texnologiya şirkətləri 2017-ci ildən GIFCT-ni avtomatik senzuraya məruz qalacaq məzmunun ortaq verilənlər bazası kimi işlətdiklərini açıqladı.[1] 2021-ci ildən etibarən Apple-ın oxşar məqsədlər üçün NeuralHash-dan istifadə etdiyi düşünülürdü.[19]

2022-ci ildə The New York Times övladının tibbi məqsədlər üçün çəkdiyi fotoşəkilləri avtomatik olaraq Google serverlərinə yüklədikdən sonra Google hesabları bağlanan iki atanın hekayəsini işıqlandırdı.[20] Məqalədə bilinən heşlərdən ibarət verilənlər bazası tələb edən PhotoDNA, əvvəlcədən məlum olmayan şəkilləri tanıya bilən Google-un süni zəkaya əsaslanan texnologiyası ilə müqayisə edilir.[21][22]

Microsoft əvvəlcə PhotoDNA-dan BingOneDrive da daxil olmaqla öz xidmətlərində istifadə edirdi.[23] 2022-ci ildən etibarən PhotoDNA Google-un Gmail, Twitter,[24] Facebook,[25] Adobe Systems,[26] Reddit[27]Discord[28] daxil olmaqla məzmun moderasiyası üçün geniş şəkildə istifadə edilmişdir.[9][29][30]

PhotoDNA heşlərinin bazasını tərtib edən Internet Watch Foundation-da uşaqların cinsi istismarı ilə bağlı bilinən materialların 300.000-dən çox heşinin olduğu bildirilir. Verilənlər bazasının digər mənbəyi İtkin düşən və İstismar Edilən Uşaqların Milli Mərkəzidir (NCMEC).[31][32]

PhotoDNA məzmunu silmək,[1] hesabları deaktiv etmək və insanları şikayət etmək üçün geniş istifadə olunur.[7]

  1. 1 2 3 "The Rise of Content Cartels". knightcolumbia.org. 2020-02-11. İstifadə tarixi: 2022-08-21.
  2. Hill, Kashmir. "A Dad Took Photos of His Naked Toddler for the Doctor. Google Flagged Him as a Criminal". The New York Times. 2022-08-21. ISSN 0362-4331. İstifadə tarixi: 2022-08-21.
  3. Douze, Matthijs; Tolias, Giorgos; Pizzi, Ed; Papakipos, Zoë; Chanussot, Lowik; Radenovic, Filip; Jenicek, Tomas; Maximov, Maxim; Leal-Taixé, Laura; Elezi, Ismail; Chum, Ondřej; Ferrer, Cristian Canton. "The 2021 Image Similarity Dataset and Challenge". 2022-02-21. arXiv:2106.09672 [cs.CV]. Image fingerprints, such as PhotoDNA from Microsoft, are used throughout the industry to identify images that depict child exploitation and abuse
  4. 1 2 "New Technology Fights Child Porn by Tracking Its "PhotoDNA"". Microsoft Corporation. December 15, 2009. İstifadə tarixi: September 9, 2016.
  5. "Photo DNA: Step by step". Microsoft. sentyabr 21, 2013 tarixində orijinalından arxivləşdirilib. İstifadə tarixi: fevral 11, 2014.
  6. "How PhotoDNA for Video is being used to fight online child exploitation". September 12, 2018.
  7. 1 2 "How PhotoDNA for Video is being used to fight online child exploitation". news.microsoft.com. September 12, 2018.
  8. 1 2 Clark, Liat. "Child abuse-tracking tech donated to the world". Wired UK. April 30, 2014.
  9. 1 2 "Microsoft's response to the consultation on the European Commission Communication on the Rights of the Child (2011–2014)" (PDF). October 24, 2017 tarixində arxivləşdirilib (PDF)., European Commission
  10. Jackson, William. "Improved image analysis tools speed exploited children cases". GCN. August 27, 2014.
  11. "PhotoDNA Cloud Service". Microsoft.com. Microsoft Corporation. İstifadə tarixi: February 19, 2015.
  12. Schmon, Christoph. "The EU Commission's Refusal to Let Go of Filters". Electronic Frontier Foundation. 2021-06-03. İstifadə tarixi: 2022-08-21.
  13. "Upload filters: a danger to free internet content?". IONOS Digitalguide. March 28, 2019. İstifadə tarixi: 2022-08-21.
  14. "Terrorist content online".
  15. Reuter, Markus; Rudl, Tomas; Rau, Franziska; Hildebr, Holly. "Why chat control is so dangerous". European Digital Rights (EDRi). İstifadə tarixi: 2022-08-21.
  16. Waddell, Kaveh. "A Tool to Delete Beheading Videos Before They Even Appear Online". The Atlantic. June 22, 2016. İstifadə tarixi: 10 September 2016.
  17. "Partnering to Help Curb Spread of Online Terrorist Content | Facebook Newsroom". İstifadə tarixi: 2016-12-06.
  18. Richard Allan. "Hearing at 11:14". 2018-06-18. in "The EU's horizontal regulatory framework for illegal content removal in the DSM".
  19. Abelson, Hal; Anderson, Ross; Bellovin, Steven M.; Benaloh, Josh; Blaze, Matt; Callas, Jon; Diffie, Whitfield; Landau, Susan; Neumann, Peter G.; Rivest, Ronald L.; Schiller, Jeffrey I.; Schneier, Bruce; Teague, Vanessa; Troncoso, Carmela. "Bugs in our pockets: The risks of client-side scanning". Journal of Cybersecurity. 10. 2024. arXiv:2110.07450. doi:10.1093/cybsec/tyad020.
  20. Hill, Kashmir. "A Dad Took Photos of His Naked Toddler for the Doctor. Google Flagged Him as a Criminal". The New York Times. 2022-08-21. ISSN 0362-4331. İstifadə tarixi: 2022-08-21. A bigger breakthrough came along almost a decade later, in 2018, when Google developed an artificially intelligent tool that could recognize never-before-seen exploitative images of children. [...] When Mark's and Cassio's photos were automatically uploaded from their phones to Google's servers, this technology flagged them.
  21. "Google Flagged Parents' Photos of Sick Children as Sexual Abuse". Gizmodo. 2022-08-22. İstifadə tarixi: 2022-08-28. According to Google, those incident reports come from multiple sources, not limited to the automated PhotoDNA tool.
  22. Roth, Emma. "Google AI flagged parents' accounts for potential abuse over nude photos of their sick kids". The Verge. 2022-08-21. İstifadə tarixi: 2022-08-28. Google has used hash matching with Microsoft's PhotoDNA for scanning uploaded images to detect matches with known CSAM. [...] In 2018, Google announced the launch of its Content Safety API AI toolkit that can “proactively identify never-before-seen CSAM imagery so it can be reviewed and, if confirmed as CSAM, removed and reported as quickly as possible.” It uses the tool for its own services and, along with a video-targeting CSAI Match hash matching solution developed by YouTube engineers, offers it for use by others as well.
  23. "Unfortunate Truths about Child Pornography and the Internet [Feature]". December 7, 2012.
  24. Arthur, Charles. "Twitter to introduce PhotoDNA system to block child abuse images". The Guardian. July 22, 2013. İstifadə tarixi: July 22, 2013.
  25. Smith, Catharine. "Facebook Adopts Microsoft PhotoDNA To Remove Child Pornography". Huffington Post. May 2, 2011. İstifadə tarixi: July 22, 2013.
  26. "Adobe & PhotoDNA". www.adobe.com (ingilis). İstifadə tarixi: 2021-08-27.
  27. "Reddit use PhotoDNA to prevent child pornography". March 19, 2020.
  28. "Discord Transparency Report: July — Dec 2020". Discord Blog (ingilis). 2021-04-02. İstifadə tarixi: 2022-05-08.
  29. Eher, Reinhard; Craig, Leam A.; Miner, Michael H.; Pfäfflin, Friedemann. International Perspectives on the Assessment and Treatment of Sexual Offenders: Theory, Practice and Research. John Wiley & Sons. 2011. səh. 514. ISBN 978-1119996200.
  30. Lattanzi-Licht, Marcia; Doka, Kenneth. Living with Grief: Coping with Public Tragedy. Routledge. 2004. səh. 317. ISBN 1135941513.
  31. "Microsoft tip led police to arrest man over child abuse images". The Guardian. August 7, 2014.
  32. Salcito, Anthony. "Microsoft donates PhotoDNA technology to make the Internet safer for kids". December 17, 2009. İstifadə tarixi: July 22, 2013.

Xarici istinadlar

[redaktə | mənbəni redaktə et]