Microsoft, ‘Sorumlu AI’ için Push Yüz Analizi Araçlarını Ortadan Kaldırmayı Planlıyor

Aktivistler ve akademisyenler, bir kişinin yaşını, cinsiyetini ve duygusal durumunu belirleyebildiğini iddia eden yüz analizi yazılımlarının önyargılı, güvenilmez veya istilacı olabileceği ve satılmaması gerektiği konusunda yıllardır endişelerini dile getiriyorlar.

Bu eleştirilerden bazılarını kabul eden Microsoft, Salı günü yaptığı açıklamada, yüzleri algılamak, analiz etmek ve tanımak için bu özellikleri yapay zeka hizmetinden kaldırmayı planladığını söyledi. Bu hafta yeni kullanıcılara sunulmayı bırakacaklar ve yıl içinde mevcut kullanıcılar için aşamalı olarak kaldırılacaklar.

Değişiklikler, Microsoft’un yapay zeka ürünlerinin daha sıkı kontrolleri için yaptığı baskının bir parçası. İki yıllık bir incelemeden sonra, Microsoft’taki bir ekip, yapay zeka sistemlerinin toplum üzerinde zararlı bir etkisi olmayacaklarından emin olmak için gereksinimleri belirleyen 27 sayfalık bir belge olan “Sorumlu Yapay Zeka Standardı” geliştirdi.

Gereksinimler, sistemlerin “çözmek üzere tasarlandıkları sorunlar için geçerli çözümler” sağlamasını ve “marjinalleştirilmiş gruplar da dahil olmak üzere tanımlanmış demografik gruplar için benzer bir hizmet kalitesi” sağlamasını içerir.

Bir kişinin istihdama, eğitime, sağlık devasına, finansal hizmetlere veya bir yaşam fırsatına erişimi hakkında önemli kararlar vermek için kullanılacak teknolojiler, piyasaya sürülmeden önce Microsoft’un baş sorumlu AI görevlisi Natasha Crampton liderliğindeki bir ekip tarafından inceleniyor. .

Microsoft’ta, birinin ifadesini öfke, küçümseme, iğrenme, korku, mutluluk, tarafsız, üzüntü veya şaşkınlık olarak etiketleyen duygu tanıma aracıyla ilgili artan endişeler vardı.

Bayan Crampton, “Kendimizi ifade etme biçimimizde çok büyük miktarda kültürel, coğrafi ve bireysel çeşitlilik var” dedi. Bu, “yüz ifadesinin içsel duygusal durumunuzun güvenilir bir göstergesi olup olmadığı” gibi daha büyük soruların yanı sıra güvenilirlik endişelerine yol açtı.

Yapay Zeka Hakkında Devamını Oku

  • Bu İnsanlar Gerçek mi?:Bir bilgisayarın sahte yüzler oluşturmasının ne kadar kolay olduğunu anlamak için kendi AI sistemimizi oluşturduk.
  • Yaşamı Taklit Etmek: Yeni AI sistemleri, orijinal düzyazı yazabilir ve emrinizde bir görüntü oluşturabilir. Etkileri derin olabilir.
  • Watson’a ne oldu? : IBM’in süper bilgisayarının endüstrileri dönüştürmesi ve şirket için zenginlik yaratması gerekiyordu. Her iki hırs da gerçekleşmedi.
  • AI/Gerçek Hayat Serisi:The Times, zihinsel bozuklukları tanımlamaktan sohbet robotlarını daha akıllı hale getirmeye kadar, AI’nın günlük sorunları çözme potansiyeline bakıyor.

Saç ve gülümseme gibi yüz özelliklerini tespit etmek için diğer araçlarla birlikte yaş ve cinsiyet analizi araçlarının ortadan kaldırılması, örneğin görme engelli veya az gören insanlar için görsel görüntüleri yorumlamak için faydalı olabilir, ancak şirket, bunu yapmanın sorunlu olduğuna karar verdi. Bayan Crampton, profil oluşturma araçlarının genel olarak halka açık olduğunu söyledi.

Özellikle, sistemin sözde cinsiyet sınıflandırıcısının ikili olduğunu ve “bu bizim değerlerimizle tutarlı değil” diye ekledi.

Microsoft ayrıca, kimlik kontrolleri yapmak veya belirli bir kişiyi aramak için kullanılabilecek yüz tanıma özelliğine yeni kontroller koyacak. Örneğin Uber, bir sürücünün yüzünün o sürücünün hesabı için kayıtlı kimlikle eşleştiğini doğrulamak için uygulamasındaki yazılımı kullanır. Microsoft’un yüz tanıma aracını kullanmak isteyen yazılım geliştiricilerin, erişim için başvurmaları ve onu nasıl dağıtmayı planladıklarını açıklamaları gerekecek.

Kullanıcıların ayrıca Özel Sinir Sesi gibi potansiyel olarak kötüye kullanım amaçlı diğer AI sistemlerini nasıl kullanacaklarını uygulamaları ve açıklamaları gerekecektir. Hizmet, birinin konuşmasının bir örneğine dayalı olarak bir insan sesi baskısı oluşturabilir, böylece yazarlar, örneğin, sesli kitaplarını konuşmadıkları dillerde okumak için seslerinin sentetik versiyonlarını oluşturabilirler.

Aracın olası kötüye kullanımı nedeniyle – insanların söylemedikleri şeyleri söylediği izlenimini yaratmak için – konuşmacılar, seslerinin kullanımına izin verildiğini doğrulamak için bir dizi adımdan geçmelidir ve kayıtlar, Microsoft tarafından algılanabilen filigranları içerir. .

11 yıldır Microsoft’ta avukat olarak çalışan ve 2018’de etik AI grubuna katılan Bayan Crampton, “Yapay zeka ilkelerimizi hayata geçirmek için somut adımlar atıyoruz” dedi. “Bu çok büyük bir yolculuk olacak. ”

Microsoft’un Redmond, Wash’daki kampüsü Şirket, kimlik kontrolleri yapmak veya belirli bir kişiyi aramak için kullanılabilecek yüz tanıma özelliğine yeni kontroller koyacak. Kredi… New York Times için Grant Hindsley

Microsoft, diğer teknoloji şirketleri gibi, yapay olarak akıllı ürünleriyle tökezledi. 2016 yılında, etkileşimde bulunduğu kullanıcılardan “konuşma anlayışını” öğrenmek için tasarlanmış Tay adlı bir sohbet robotunu Twitter’da yayınladı. Bot hızla ırkçı ve saldırgan tweetler atmaya başladı ve Microsoft onu kaldırmak zorunda kaldı.

2020’de araştırmacılar, Microsoft, Apple, Google, IBM ve Amazon tarafından geliştirilen konuşmayı metne dönüştürme araçlarının Siyah insanlar için daha az işe yaradığını keşfetti. Microsoft’un sistemi grubun en iyisiydi, ancak beyazlar için kelimelerin yüzde 15’ini yanlış tanımladı, bu oran Siyahlar için yüzde 27’ydi.

Şirket, AI sistemini eğitmek için çeşitli konuşma verileri topladı, ancak dilin ne kadar çeşitli olabileceğini anlamamıştı. Bu nedenle, Microsoft’un bilmesi gereken dil çeşitlerini açıklamak için Washington Üniversitesi’nden bir toplumdilbilim uzmanı tuttu. İnsanların resmi ve gayri resmi ortamlarda nasıl konuştukları demografik ve bölgesel çeşitliliğin ötesine geçti.

Bayan Crampton, “Birinin nasıl konuştuğunun belirleyici bir faktörü olarak ırkı düşünmek aslında biraz yanıltıcıdır” dedi. “Uzmanla istişare ederek öğrendiklerimiz, aslında çok çeşitli faktörlerin dil çeşitliliğini etkilediğidir.”

Bayan Crampton, konuşmadan metne olan bu eşitsizliği düzeltme yolculuğunun, şirketin yeni standartlarında ortaya konan kılavuzun bilgilendirilmesine yardımcı olduğunu söyledi.

“Bu, AI için kritik bir norm belirleme dönemidir” dedi ve Avrupa’nın yapay zeka kullanımına ilişkin kurallar ve sınırlar belirleyen düzenleme tekliflerine işaret etti. “Teknoloji şirketlerinin uyması gereken standartlar hakkında yapılması gereken parlak, gerekli tartışmaya katkıda bulunmak için standardımızı kullanabilmeyi umuyoruz.”

Yapay zekanın potansiyel zararları hakkında, teknoloji camiasında, insanların refahtan yararlanıp faydalanmayacağını belirleyen algoritmalar gibi, insanların yaşamları üzerinde gerçek sonuçları olan hatalar ve hatalar tarafından körüklenen, yıllardır süren hararetli bir tartışma sürüyor. Hollanda vergi makamları, hatalı bir algoritma çifte vatandaşlığa sahip insanları cezalandırdığında, yanlışlıkla muhtaç ailelerden çocuk deva yardımlarını aldı.

Yüzleri tanıma ve analiz etmeye yönelik otomatik yazılımlar özellikle tartışmalı olmuştur. Geçen yıl Facebook, fotoğraflardaki insanları tanımlamak için on yıllık sistemini kapattı. Şirketin yapay zekadan sorumlu başkan yardımcısı, “yüz tanıma teknolojisinin toplumdaki yeri ile ilgili birçok endişeyi” dile getirdi.

Birkaç Siyah adam, hatalı yüz tanıma eşleşmelerinden sonra haksız yere tutuklandı. Ve 2020’de, George Floyd’un Minneapolis’te polis tarafından öldürülmesinin ardından Black Lives Matter protestolarıyla aynı zamanda, Amazon ve Microsoft, yüz tanıma ürünlerinin Amerika Birleşik Devletleri’nde polis tarafından kullanımına ilişkin daha net yasalar söyleyerek moratoryumlar yayınladı. kullanımına ihtiyaç vardı.

O zamandan beri, Washington ve Massachusetts, diğer şeylerin yanı sıra, polisin yüz tanıma araçlarının kullanımı konusunda yargı denetimi gerektiren düzenlemeleri kabul etti.

Bayan Crampton, Microsoft’un, yasalarla ilgili kanunları olan eyaletlerde yazılımını polise sunmaya başlamayı düşündüğünü, ancak şimdilik bunu yapmamaya karar verdiğini söyledi. Meşhur manzara değiştikçe bunun değişebileceğini söyledi.

Princeton’da bilgisayar bilimi profesörü ve önde gelen yapay zeka uzmanı olan Arvind Narayanan, şirketlerin yüzü analiz eden teknolojilerden geri adım atabileceklerini, çünkü “şüpheli olabilecek ancak bizim bilmediğimiz diğer çeşitli yapay zeka türlerinin aksine, daha içgüdüsel oldukları için” dedi. mutlaka kemiklerimizde hissedin.”

Şirketler ayrıca, en azından şu an için bu sistemlerden bazılarının ticari olarak o kadar değerli olmadığını fark edebilir, dedi. Microsoft, kurtulduğu yüz analizi özellikleri için kaç kullanıcıya sahip olduğunu söyleyemedi. Bay Narayanan, şirketlerin, insanları kendilerine göstermek için en iyi reklamları seçmeye yönlendiren hedefli reklamcılık gibi diğer istilacı teknolojileri terk etme olasılığının daha düşük olacağını tahmin etti, çünkü bunlar bir “nakit ineği”ydi.

Microsoft, ‘Sorumlu AI’ için Push Yüz Analizi Araçlarını Ortadan Kaldırmayı Planlıyor

Aktivistler ve akademisyenler, bir kişinin yaşını, cinsiyetini ve duygusal durumunu belirleyebildiğini iddia eden yüz analizi yazılımlarının önyargılı, güvenilmez veya istilacı olabileceği ve satılmaması gerektiği konusunda yıllardır endişelerini dile getiriyorlar.

Bu eleştirilerden bazılarını kabul eden Microsoft, Salı günü yaptığı açıklamada, yüzleri algılamak, analiz etmek ve tanımak için bu özellikleri yapay zeka hizmetinden kaldırmayı planladığını söyledi. Bu hafta yeni kullanıcılara sunulmayı bırakacaklar ve yıl içinde mevcut kullanıcılar için aşamalı olarak kaldırılacaklar.

Değişiklikler, Microsoft’un yapay zeka ürünlerinin daha sıkı kontrolleri için yaptığı baskının bir parçası. İki yıllık bir incelemeden sonra, Microsoft’taki bir ekip, yapay zeka sistemlerinin toplum üzerinde zararlı bir etkisi olmayacaklarından emin olmak için gereksinimleri belirleyen 27 sayfalık bir belge olan “Sorumlu Yapay Zeka Standardı” geliştirdi.

Gereksinimler, sistemlerin “çözmek üzere tasarlandıkları sorunlar için geçerli çözümler” sağlamasını ve “marjinalleştirilmiş gruplar da dahil olmak üzere tanımlanmış demografik gruplar için benzer bir hizmet kalitesi” sağlamasını içerir.

Bir kişinin istihdama, eğitime, sağlık devasına, finansal hizmetlere veya bir yaşam fırsatına erişimi hakkında önemli kararlar vermek için kullanılacak teknolojiler, piyasaya sürülmeden önce Microsoft’un baş sorumlu AI görevlisi Natasha Crampton liderliğindeki bir ekip tarafından inceleniyor. .

Microsoft’ta, birinin ifadesini öfke, küçümseme, iğrenme, korku, mutluluk, tarafsız, üzüntü veya şaşkınlık olarak etiketleyen duygu tanıma aracıyla ilgili artan endişeler vardı.

Bayan Crampton, “Kendimizi ifade etme biçimimizde çok büyük miktarda kültürel, coğrafi ve bireysel çeşitlilik var” dedi. Bu, “yüz ifadesinin içsel duygusal durumunuzun güvenilir bir göstergesi olup olmadığı” gibi daha büyük soruların yanı sıra güvenilirlik endişelerine yol açtı.

Yapay Zeka Hakkında Devamını Oku

  • Bu İnsanlar Gerçek mi?:Bir bilgisayarın sahte yüzler oluşturmasının ne kadar kolay olduğunu anlamak için kendi AI sistemimizi oluşturduk.
  • Yaşamı Taklit Etmek: Yeni AI sistemleri, orijinal düzyazı yazabilir ve emrinizde bir görüntü oluşturabilir. Etkileri derin olabilir.
  • Watson’a ne oldu? : IBM’in süper bilgisayarının endüstrileri dönüştürmesi ve şirket için zenginlik yaratması gerekiyordu. Her iki hırs da gerçekleşmedi.
  • AI/Gerçek Hayat Serisi:The Times, zihinsel bozuklukları tanımlamaktan sohbet robotlarını daha akıllı hale getirmeye kadar, AI’nın günlük sorunları çözme potansiyeline bakıyor.

Saç ve gülümseme gibi yüz özelliklerini tespit etmek için diğer araçlarla birlikte yaş ve cinsiyet analizi araçlarının ortadan kaldırılması, örneğin görme engelli veya az gören insanlar için görsel görüntüleri yorumlamak için faydalı olabilir, ancak şirket, bunu yapmanın sorunlu olduğuna karar verdi. Bayan Crampton, profil oluşturma araçlarının genel olarak halka açık olduğunu söyledi.

Özellikle, sistemin sözde cinsiyet sınıflandırıcısının ikili olduğunu ve “bu bizim değerlerimizle tutarlı değil” diye ekledi.

Microsoft ayrıca, kimlik kontrolleri yapmak veya belirli bir kişiyi aramak için kullanılabilecek yüz tanıma özelliğine yeni kontroller koyacak. Örneğin Uber, bir sürücünün yüzünün o sürücünün hesabı için kayıtlı kimlikle eşleştiğini doğrulamak için uygulamasındaki yazılımı kullanır. Microsoft’un yüz tanıma aracını kullanmak isteyen yazılım geliştiricilerin, erişim için başvurmaları ve onu nasıl dağıtmayı planladıklarını açıklamaları gerekecek.

Kullanıcıların ayrıca Özel Sinir Sesi gibi potansiyel olarak kötüye kullanım amaçlı diğer AI sistemlerini nasıl kullanacaklarını uygulamaları ve açıklamaları gerekecektir. Hizmet, birinin konuşmasının bir örneğine dayalı olarak bir insan sesi baskısı oluşturabilir, böylece yazarlar, örneğin, sesli kitaplarını konuşmadıkları dillerde okumak için seslerinin sentetik versiyonlarını oluşturabilirler.

Aracın olası kötüye kullanımı nedeniyle – insanların söylemedikleri şeyleri söylediği izlenimini yaratmak için – konuşmacılar, seslerinin kullanımına izin verildiğini doğrulamak için bir dizi adımdan geçmelidir ve kayıtlar, Microsoft tarafından algılanabilen filigranları içerir. .

11 yıldır Microsoft’ta avukat olarak çalışan ve 2018’de etik AI grubuna katılan Bayan Crampton, “Yapay zeka ilkelerimizi hayata geçirmek için somut adımlar atıyoruz” dedi. “Bu çok büyük bir yolculuk olacak. ”

Microsoft’un Redmond, Wash’daki kampüsü Şirket, kimlik kontrolleri yapmak veya belirli bir kişiyi aramak için kullanılabilecek yüz tanıma özelliğine yeni kontroller koyacak. Kredi… New York Times için Grant Hindsley

Microsoft, diğer teknoloji şirketleri gibi, yapay olarak akıllı ürünleriyle tökezledi. 2016 yılında, etkileşimde bulunduğu kullanıcılardan “konuşma anlayışını” öğrenmek için tasarlanmış Tay adlı bir sohbet robotunu Twitter’da yayınladı. Bot hızla ırkçı ve saldırgan tweetler atmaya başladı ve Microsoft onu kaldırmak zorunda kaldı.

2020’de araştırmacılar, Microsoft, Apple, Google, IBM ve Amazon tarafından geliştirilen konuşmayı metne dönüştürme araçlarının Siyah insanlar için daha az işe yaradığını keşfetti. Microsoft’un sistemi grubun en iyisiydi, ancak beyazlar için kelimelerin yüzde 15’ini yanlış tanımladı, bu oran Siyahlar için yüzde 27’ydi.

Şirket, AI sistemini eğitmek için çeşitli konuşma verileri topladı, ancak dilin ne kadar çeşitli olabileceğini anlamamıştı. Bu nedenle, Microsoft’un bilmesi gereken dil çeşitlerini açıklamak için Washington Üniversitesi’nden bir toplumdilbilim uzmanı tuttu. İnsanların resmi ve gayri resmi ortamlarda nasıl konuştukları demografik ve bölgesel çeşitliliğin ötesine geçti.

Bayan Crampton, “Birinin nasıl konuştuğunun belirleyici bir faktörü olarak ırkı düşünmek aslında biraz yanıltıcıdır” dedi. “Uzmanla istişare ederek öğrendiklerimiz, aslında çok çeşitli faktörlerin dil çeşitliliğini etkilediğidir.”

Bayan Crampton, konuşmadan metne olan bu eşitsizliği düzeltme yolculuğunun, şirketin yeni standartlarında ortaya konan kılavuzun bilgilendirilmesine yardımcı olduğunu söyledi.

“Bu, AI için kritik bir norm belirleme dönemidir” dedi ve Avrupa’nın yapay zeka kullanımına ilişkin kurallar ve sınırlar belirleyen düzenleme tekliflerine işaret etti. “Teknoloji şirketlerinin uyması gereken standartlar hakkında yapılması gereken parlak, gerekli tartışmaya katkıda bulunmak için standardımızı kullanabilmeyi umuyoruz.”

Yapay zekanın potansiyel zararları hakkında, teknoloji camiasında, insanların refahtan yararlanıp faydalanmayacağını belirleyen algoritmalar gibi, insanların yaşamları üzerinde gerçek sonuçları olan hatalar ve hatalar tarafından körüklenen, yıllardır süren hararetli bir tartışma sürüyor. Hollanda vergi makamları, hatalı bir algoritma çifte vatandaşlığa sahip insanları cezalandırdığında, yanlışlıkla muhtaç ailelerden çocuk deva yardımlarını aldı.

Yüzleri tanıma ve analiz etmeye yönelik otomatik yazılımlar özellikle tartışmalı olmuştur. Geçen yıl Facebook, fotoğraflardaki insanları tanımlamak için on yıllık sistemini kapattı. Şirketin yapay zekadan sorumlu başkan yardımcısı, “yüz tanıma teknolojisinin toplumdaki yeri ile ilgili birçok endişeyi” dile getirdi.

Birkaç Siyah adam, hatalı yüz tanıma eşleşmelerinden sonra haksız yere tutuklandı. Ve 2020’de, George Floyd’un Minneapolis’te polis tarafından öldürülmesinin ardından Black Lives Matter protestolarıyla aynı zamanda, Amazon ve Microsoft, yüz tanıma ürünlerinin Amerika Birleşik Devletleri’nde polis tarafından kullanımına ilişkin daha net yasalar söyleyerek moratoryumlar yayınladı. kullanımına ihtiyaç vardı.

O zamandan beri, Washington ve Massachusetts, diğer şeylerin yanı sıra, polisin yüz tanıma araçlarının kullanımı konusunda yargı denetimi gerektiren düzenlemeleri kabul etti.

Bayan Crampton, Microsoft’un, yasalarla ilgili kanunları olan eyaletlerde yazılımını polise sunmaya başlamayı düşündüğünü, ancak şimdilik bunu yapmamaya karar verdiğini söyledi. Meşhur manzara değiştikçe bunun değişebileceğini söyledi.

Princeton’da bilgisayar bilimi profesörü ve önde gelen yapay zeka uzmanı olan Arvind Narayanan, şirketlerin yüzü analiz eden teknolojilerden geri adım atabileceklerini, çünkü “şüpheli olabilecek ancak bizim bilmediğimiz diğer çeşitli yapay zeka türlerinin aksine, daha içgüdüsel oldukları için” dedi. mutlaka kemiklerimizde hissedin.”

Şirketler ayrıca, en azından şu an için bu sistemlerden bazılarının ticari olarak o kadar değerli olmadığını fark edebilir, dedi. Microsoft, kurtulduğu yüz analizi özellikleri için kaç kullanıcıya sahip olduğunu söyleyemedi. Bay Narayanan, şirketlerin, insanları kendilerine göstermek için en iyi reklamları seçmeye yönlendiren hedefli reklamcılık gibi diğer istilacı teknolojileri terk etme olasılığının daha düşük olacağını tahmin etti, çünkü bunlar bir “nakit ineği”ydi.