7 Kez Makine Öğrenimi Yanlış Yaptı

7 Kez Makine Öğrenimi Yanlış Yaptı
Sizin gibi okuyucular MUO'yu desteklemeye yardımcı oluyor. Sitemizdeki bağlantıları kullanarak bir satın alma işlemi gerçekleştirdiğinizde, bir ortaklık komisyonu kazanabiliriz. Devamını oku.

Makine öğrenimi, güçlü ve eğitim verilerine uyum sağlayan yapay zeka oluşturmanın harika bir yoludur. Ancak bazen, bu veriler sorunlara neden olabilir. Diğer zamanlarda, insanların bu AI araçlarını kullanma şekli sorundur.





Burada, makine öğreniminin sorunlu sonuçlara yol açtığı bazı yüksek profilli olaylara bir göz atalım.





GÜNÜN MAKALE VİDEOSU İÇERİKLE DEVAM ETMEK İÇİN KAYDIRIN

1. Google Görsel Arama Sonucundaki Aksilikler

  google-image-search-sonuçları-tartışmaları

Google Arama, web'de gezinmeyi çok daha kolay hale getirdi. Motorun algoritması, sonuçları karıştırırken çeşitli şeyleri dikkate alır. Ancak algoritma, arama sonucu kalitesinde sorunlara neden olabilecek kullanıcı trafiğinden de öğrenir.





Bu hiçbir yerde görüntü sonuçlarından daha belirgin değildir. Yüksek trafik alan sayfaların resimlerinin görüntülenme olasılığı daha yüksek olduğundan, tıklama tuzağı da dahil olmak üzere çok sayıda kullanıcıyı çeken hikayelere öncelik verilebilir.

Örneğin, 'Güney Afrika'daki gecekondu kampları' için görsel arama sonuçları, ağırlıklı olarak beyaz Güney Afrikalıların yer aldığı keşfedildiğinde tartışmalara neden oldu. Bu, gayri resmi konutlarda yaşayanların ezici çoğunluğunun siyah Güney Afrikalılar olduğunu gösteren istatistiklere rağmen.



Google'ın algoritmasında kullanılan faktörler, internet kullanıcılarının sonuçları manipüle edebileceği anlamına da geliyor. Örneğin, kullanıcılar tarafından yapılan bir kampanya, Google Görsel Arama sonuçlarını, 'aptal' terimini ararken bir dönem eski ABD Başkanı Donald Trump'ın resimlerini gösterecek kadar etkiledi.

2. Microsoft Bot Tay Bir Naziye Dönüştü





Yapay zeka destekli sohbet robotları, özellikle ChatGPT gibi büyük dil modelleri tarafından desteklenenler son derece popülerdir. ChatGPT'nin birkaç sorunu var , ancak yaratıcıları diğer şirketlerin hatalarından da ders aldı.

Ters giden sohbet robotlarının en yüksek profilli olaylarından biri, Microsoft'un sohbet robotu Tay'ı başlatma girişimiydi.





Tay, genç bir kızın dil kalıplarını taklit etti ve diğer Twitter kullanıcılarıyla etkileşimleri yoluyla öğrendi. Ancak, Nazi açıklamalarını ve ırkçı hakaretleri paylaşmaya başladığında yapay zekanın en kötü şöhretli adımlarından biri haline geldi. Trollerin yapay zekanın makine öğrenimini ona karşı kullandığı ve onu bağnazlıkla dolu etkileşimlerle doldurduğu ortaya çıktı.

Kısa bir süre sonra Microsoft, Tay'ı tamamen çevrimdışı duruma getirdi.

3. AI Yüz Tanıma Sorunları

Yüz tanıma yapay zekası, genellikle yüz tanıma ve mahremiyet endişeleri hakkındaki hikayeler gibi tüm yanlış nedenlerle manşetlere çıkar. Ancak bu yapay zekanın, renkli insanları tanımaya çalışırken sorunlu bir geçmişi var.

2015 yılında kullanıcılar, Google Fotoğraflar'ın bazı siyah insanları goriller olarak sınıflandırdığını keşfetti. 2018'de ACLU tarafından yapılan araştırma, Amazon'un Rekognition yüz tanımlama yazılımının ABD Kongresi'nin 28 üyesini polis zanlısı olarak tanımladığını ve yanlış pozitiflerin beyaz olmayan insanları orantısız bir şekilde etkilediğini gösterdi.

Başka bir olay, Apple'ın Face ID yazılımının yanlış bir şekilde iki farklı Çinli kadını aynı kişi olarak tanımlamasıyla ilgiliydi. Sonuç olarak, iPhone X sahibinin iş arkadaşı telefonun kilidini açabilir.

Aşırı sonuçların bir örneğinde, yüz tanıma yapay zekası birkaç kişinin haksız yere tutuklanmasına yol açtı. kablolu bu tür üç vaka hakkında rapor edilmiştir.

Bu arada bilgisayar bilimcisi Joy Buolamwini, yüz tanıma teknolojisi üzerinde çalışırken yazılımın onu tanımasını sağlamak için sık sık beyaz bir maske takması gerektiğini hatırladı. Bunun gibi sorunları çözmek için Buolamwini ve diğer BT uzmanları, yapay zeka yanlılığı konusuna ve daha kapsayıcı veri kümelerine duyulan ihtiyaca dikkat çekiyor.

4. Aldatmacalar İçin Kullanılan Deepfakes

İnsanlar sahte görüntüler oluşturmak için uzun süredir Photoshop kullanıyor olsa da, makine öğrenimi bunu yeni bir düzeye taşıyor. Deepfakes, sahte görüntüler ve videolar oluşturmak için derin öğrenme yapay zekasını kullanır . FaceApp gibi yazılımlar, konuların yüzünü bir videodan diğerine değiştirmenize olanak tanır.

Ancak birçok kişi, ünlü yüzleri yetişkin videolarına yerleştirmek veya sahte videolar oluşturmak da dahil olmak üzere çeşitli kötü amaçlı kullanımlar için yazılımdan yararlanır. Bu arada, internet kullanıcıları, gerçek videoları sahte olanlardan ayırt etmeyi giderek daha zor hale getiren teknolojinin geliştirilmesine yardımcı oldu. Sonuç olarak, bu, bu tür yapay zekayı sahte haberler ve aldatmacalar yayma açısından çok güçlü kılar.

Yönetmen Jordan Peele ve BuzzFeed CEO'su Jonah Peretti, teknolojinin gücünü göstermek için eski ABD Başkanı Barack Obama'nın deepfake'lerin gücü hakkında bir PSA sunarken göründüğü bir deepfake video hazırladılar.

Sahte görüntülerin gücü, yapay zeka tarafından desteklenen görüntü oluşturucularla hızlandırıldı. 2023'te Donald Trump'ın tutuklandığını ve Katolik Papa'yı bir kirpi ceketle tasvir eden viral paylaşımların üretken yapay zekanın sonucu olduğu ortaya çıktı.

Var AI tarafından oluşturulan bir görüntüyü tespit etmek için takip edebileceğiniz ipuçları , ancak teknoloji giderek daha sofistike hale geliyor.

5. Çalışanlar, Amazon Yapay Zekasının Erkekleri İşe Almanın Daha İyi Olduğunu Söyledi

Ekim 2018'de Reuters Amazon'un, yazılımın yapay zekasının erkek adayların tercihli olduğuna karar vermesinin ardından bir iş bulma aracını rafa kaldırmak zorunda kaldığını bildirdi.

Anonim kalmak isteyen çalışanlar, Reuters'e projedeki çalışmalarını anlatmak için öne çıktı. Geliştiriciler, yapay zekanın özgeçmişlerine göre bir iş için en iyi adayları belirlemesini istedi. Ancak projeye dahil olan kişiler, yapay zekanın kadın adayları cezalandırdığını kısa sürede fark etti. Yapay zekanın, eğitim veri seti olarak çoğu erkeklerden olmak üzere son on yılın özgeçmişlerini kullandığını açıkladılar.

Sonuç olarak yapay zeka, özgeçmişleri 'kadınlar' anahtar kelimesine göre filtrelemeye başladı. Anahtar kelime özgeçmişte 'kadın satranç kulübü kaptanı' gibi faaliyetler altında yer aldı. Geliştiriciler, kadınların özgeçmişlerinin bu şekilde cezalandırılmasını önlemek için yapay zekayı değiştirirken, Amazon nihayetinde projeyi rafa kaldırdı.

6. Jailbroken Chatbot'lar

Daha yeni sohbet robotlarının hizmet şartlarına aykırı yanıtlar vermelerini engelleyen sınırlamaları olsa da, kullanıcılar yasaklı içerik sağlamak için araçları jailbreak yapmanın yollarını buluyor.

2023'te Forcepoint güvenlik araştırmacısı Aaron Mulgrew, ChatGPT istemlerini kullanarak sıfır gün kötü amaçlı yazılımı oluşturmayı başardı.

Mulgrew, 'Sadece ChatGPT istemlerini kullanarak ve herhangi bir kod yazmadan, yalnızca birkaç saat içinde çok gelişmiş bir saldırı oluşturabildik.' dedi. Güç noktası gönderisi .

cmd'de renk nasıl değiştirilir

Kullanıcıların ayrıca, nasıl bomba yapacaklarına veya araba çalacaklarına dair talimatlar vermek için sohbet robotları edinebildikleri de bildirildi.

7. Sürücüsüz Araba Kazaları

Otonom araçlara yönelik coşku, kendi kendini süren yapay zeka tarafından yapılan hatalar nedeniyle ilk yutturmaca aşamasından itibaren söndü. 2022'de Washington post yaklaşık bir yılda, gelişmiş sürücü destek sistemlerini içeren 392 kazanın ABD Ulusal Karayolu Trafik Güvenliği İdaresine bildirildiğini bildirdi.

Bu kazalar arasında ciddi yaralanmalar ve altı ölüm vardı.

Bu, Tesla gibi şirketlerin tamamen otonom araçlar peşinde koşmasını engellemese de, kendi kendine sürüş yazılımına sahip daha fazla araba yollara çıktıkça kazaların artmasıyla ilgili endişeleri artırdı.

Makine Öğrenimi Yapay Zekası Kusursuz Değil

Makine öğrenimi güçlü yapay zeka araçları oluşturabilse de kötü verilere veya insan müdahalesine karşı bağışık değildir. Hatalı eğitim verileri, yapay zeka teknolojisindeki sınırlamalar veya kötü aktörlerin kullanımı nedeniyle, bu tür yapay zeka birçok olumsuz olayla sonuçlanmıştır.