AI kazıma: verilerinizi zehirleyen ve kullanımını önleyen bir araç - Dünyadan Güncel Teknoloji Haberleri

AI kazıma: verilerinizi zehirleyen ve kullanımını önleyen bir araç - Dünyadan Güncel Teknoloji Haberleri

Teknik, üretken yapay zeka modellerinin işe yaramaz sonuçlar üretmesine neden oluyor


Üretken yapay zeka modellerinin ana itici güçlerinden biri “kazıma”dır

Nightshade, yapay zeka şirketlerini izin istemeden veri kullanmaktan vazgeçirmekle kalmayıp, aynı zamanda kullanıcıları bu üretken yapay zeka modellerinden herhangi birini kullanırken dikkatli olmaya da teşvik edebilir Yapay zeka şirketlerinin, genellikle çılgınca internet kaynaklarından veri toplayarak yapay zeka modellerini eğitmek için kullandıkları bir süreç

Ancak model eğitmenler farklı savunmalar uygulayabilir

Araştırma makalesine göre Nightshade zehir örnekleri, aşağıdaki resimde gösterildiği gibi 100’den az örnekte Kararlı Yayılım istemini bozabilir Örneğin belge, “fantezi sanatı” terimi zehirlendiğinde, ünlü bir fantezi sanatı yaratıcısı olan “bir tablo Michael Whelan” ifadesinin de zehirlendiğini açıklıyor Bu, istemde yazılan metinle eşleşmeyen hatalı görüntüler üretmesine neden olur



Chicago Üniversitesi

Zehirlenme, belirli bir terimin zehirlenmesinin yanı sıra ilişkili terimleri de etkiler

Sanatçıların eserlerinin izinsiz kullanılması sorununu hafifletmek için başka girişimlerde bulunuldu

Chicago Üniversitesi’ndeki araştırmacılar, geliştiricilerin çalışmalarında AI araçlarını eğitmesini önlemek için sanatçıların dijital sanatlarını “zehirlemelerine” olanak tanıyan yeni bir araç olan Nightshade’i yarattı

Yapay zekanın kazınması, çalışmaları yapay zeka modelleri aracılığıyla yeni sanat eserleri üretmek için kazınan sanatçılar üzerinde özellikle olumsuz bir ekonomik ve itibar etkisi yaratabilir

Örneğin, yukarıdaki örnekte yalnızca “köpek” terimi değil, aynı zamanda “yavru köpek”, “tazı” ve “husky” gibi eşanlamlılar da etkilenecektir MIT Teknoloji İncelemesiAraştırmaya özel bir bakış sunan kişi


Kaynak : “ZDNet

Zehirli verilerin modelden kaldırılması zordur

Ek olarak, yapay zeka şirketinin bozuk her numuneyi ayrı ayrı kaldırması gerektiğinden, zehirlenmiş verilerin modelden kaldırılması zordur

Terimler arasındaki korelasyonun da yukarıdaki örnekte olduğu kadar doğrudan olması gerekmez

Ancak model eğiticileri, verilerinin zehirlenmesine ilişkin bu risklere karşı, veri filtreleme, konum tespit yöntemleri ve zehir giderme yöntemleri dahil olmak üzere farklı savunmalar uygulayabilir, ancak bu üç yöntem tamamen etkili değildir Açıkçası, manipülasyon yapay zekanın denekleri birbiriyle karıştırmasına neden oluyor Ama belki bir çözüm vardır

Manipülasyon yapay zekanın denekleri birbiriyle karıştırmasına neden oluyor

Sanatçılar, Nightshade’i kullanarak eserlerinin piksellerinde insan gözüyle görülmeyen değişiklikler yapabiliyor ve bu da üretken yapay zeka modelinde “kaotik” ve “öngörülemeyen” kırılmalara neden oluyor Getty Images Image Generator ve Adobe Firefly gibi görüntü üreten bazı yapay zeka modelleri, modellerini eğitmek için yalnızca sanatçı onaylı veya açık erişimli görüntüler kullanır ve karşılığında bir telafi programı uygular com”



genel-15

Ve bu nedenle bu verilerin sahiplerinin izni olmadan

Örneğin yapay zeka modeli, bir köpeğin aslında bir kedi olduğuna inandırılarak kandırılabilir