Yapay zekâya ne kadar güvenebiliriz?

Yapay zekâ asistanınıza güvenmeden evvel iki kere düşünmelisiniz çünkü data tabanı zehirlenmesi asistanınızın çıktılarını değerli ölçüde hatta tehlikeli bir halde değiştirebilir.  Siber güvenlik şirketi ESET güvenlik, saklılık ve itimattan ödün vermeden yapay zekânın potansiyelini nasıl ortaya çıkarabilirizi araştırdı, tekliflerini paylaştı.

 

Sürekli ortaya çıkan sayısız güvenlik açığından da görebileceğimiz üzere çağdaş teknoloji kusursuz olmaktan çok uzak. Tasarım açısından inançlı sistemler tasarlamak denenmiş ve doğrulanmış bir en düzgün uygulama olsa da bunu yapmak kaynakları kullanıcı tecrübesi (UX) tasarımı, performans optimizasyonu ve öteki tahliller ve hizmetlerle birlikte çalışabilirlik üzere öbür alanlardan uzaklaştırabilir. Bu nedenle, güvenlik çoklukla art planda kalır ve sırf taban uyumluluk gerekliliklerini yerine getirir. Bu değiş tokuş bilhassa hassas bilgiler kelam konusu olduğunda telaş verici hale gelir zira bu çeşit bilgiler kritiklikleriyle orantılı müdafaalar gerektirir. Günümüzde, yetersiz güvenlik tedbirlerinin riskleri, bilgilerin fonksiyonelliklerinin temelini oluşturduğu yapay zekâ ve makine tahsili (AI/ML) sistemlerinde giderek daha besbelli hale gelmektedir. 

Veri zehirlenmesi nedir?

Yapay zekâ ve makine tahsili modelleri, kontrollü ve kontrolsüz öğrenme yoluyla daima olarak güncellenen temel eğitim data kümeleri üzerine inşa edilir. Makine tahsili yapay zekânın gelişmesinde kıymetli rol oynar. Makine tahsili sayesinde gerçekleşen derin öğrenme, öteki etkenlerle birlikte yapay zekânın yeteneklerini ilerletmesini mümkün kılar. Bilgiler ne kadar çeşitli ve muteber olursa modelin çıktıları da o kadar yanlışsız ve kullanışlı olacaktır. Bu nedenle, eğitim sırasında bu modellerin büyük ölçüde dataya erişmesi gerekir. Öte yandan, doğrulanmamış yahut uygun incelenmemiş data kümeleri güvenilmez sonuçların ortaya çıkma mümkünlüğünü artırdığından data yığınlarına güvenmek riskleri de beraberinde getirmektedir. Üretken yapay zekânın, bilhassa de büyük lisan modellerinin (LLM’ler) ve bunların yapay zekâ asistanları halindeki uzantılarının, modelleri berbat niyetli hedeflerle kurcalayan akınlara karşı bilhassa savunmasız olduğu bilinmektedir.  En sinsi tehditlerden biri, düşmanların modelin davranışını değiştirmeye çalıştığı ve yanlış, önyargılı ve hatta ziyanlı çıktılar üretmesine neden olduğu data (veya data tabanı) zehirlenmesidir. Bu cins tahrifatların sonuçları uygulamalar ortasında dalgalanarak inancı sarsabilir ve hem beşerler hem de kuruluşlar için sistemik riskler doğurabilir.

Veri zehirlenmesi türleri

Veri zehirleme akınlarının çeşitli çeşitleri vardır, örneğin:

·       Veri enjeksiyonu: Saldırganlar, bir yapay zekâ modelinin davranışını değiştirmesini sağlamak için eğitim datalarına makus maksatlı data noktaları enjekte eder. Çevrimiçi kullanıcıların Tay Twitter botunu saldırgan tweetler atacak formda yavaşça değiştirmesi buna düzgün bir örnektir.

·       İçeriden hücumlar: Normal içeriden tehditlerde olduğu üzere, çalışanlar erişimlerini berbata kullanarak bir modelin eğitim setini değiştirebilir, davranışını değiştirmek için modül parça değiştirebilirler. İçeriden akınlar bilhassa sinsidir zira yasal erişimden faydalanırlar.

·       Tetikleyici enjeksiyonu: Bu akın, bir tetikleyici oluşturmak için yapay zekâ modelinin eğitim setine data enjekte eder. Bu, saldırganların bir modelin güvenliğini aşmasına ve belirlenen tetikleyiciye nazaran durumlarda çıktısını manipüle etmesine imkan tanır. Bu taarruzun tespit edilmesindeki zorluk, tetikleyicinin tespit edilmesinin güç olabilmesinin yanı sıra tetikleyici etkinleştirilene kadar tehdidin uykuda kalmasıdır.

·       Tedarik zinciri saldırısı: Bu atakların tesirleri bilhassa dehşetli olabilir. Yapay zekâ modelleri ekseriyetle üçüncü taraf bileşenleri kullandığından tedarik zinciri sürecinde ortaya çıkan güvenlik açıkları sonuçta modelin güvenliğini tehlikeye atabilir ve onu istismara açık hale getirebilir.

Yapay zekâ modelleri hem iş hem de tüketici sistemlerine derinlemesine gömüldükçe asistanlar yahut verimlilik artırıcılar olarak hizmet verdikçe bu sistemleri gaye alan ataklar kıymetli bir tasa kaynağı haline geliyor. Kurumsal yapay zekâ modelleri bilgileri üçüncü taraflarla paylaşmasa da çıktılarını güzelleştirmek için şirket içi bilgileri silip süpürmeye devam ediyor. Bunu yapmak için hassas bilgi hazinesine erişmeleri gerekir, bu da onları yüksek kıymetli amaçlar haline getirir. Çoklukla hassas bilgilerle dolu olan kullanıcı komutlarını öteki taraflarla paylaşan tüketici modelleri için riskler daha da artmaktadır.

Makine tahsili ve yapay zekâ gelişimi nasıl teminat altına alınır?

ML/AI modelleri için önleyici stratejiler hem geliştiricilerin hem de kullanıcıların farkındalığını gerektirir. Temel stratejiler şunları içerir:

·       Sürekli denetimler ve kontroller: Kötü niyetli manipülasyon yahut önyargılı bilgilerin onları tehlikeye atmasını önlemek için AI/ML modellerini besleyen data kümelerinin bütünlüğünü daima olarak denetim etmek ve doğrulamak değerlidir.

·       Güvenliğe odaklanın: Yapay zekâ geliştiricilerinin kendileri de saldırganların amacında olabilir, bu nedenle proaktif tedbire, erken tespit ve sistemik güvenlik denetimleri ile hücum yüzeyini en aza indirmeye yönelik tedbire öncelikli bir yaklaşım sağlayabilecek bir güvenlik kurulumuna sahip olmak, inançlı geliştirme için olmazsa olmazdır.

·       Çekişmeli eğitim: Daha evvel de belirtildiği üzere, modeller çoklukla öğrenmelerini yönlendirmek için profesyoneller tarafından denetlenir. Birebir yaklaşım, modellere makûs niyetli ve geçerli bilgi noktaları ortasındaki farkı öğretmek için de kullanılabilir ve sonuçta zehirleme taarruzlarının engellenmesine yardımcı olur.

·       Sıfır inanç ve erişim yönetimi: Hem içeriden hem de dışarıdan gelen tehditlere karşı savunmak için bir modelin temel bilgilerine yetkisiz erişimi izleyebilen bir güvenlik tahlili kullanın. Bu halde kuşkulu davranışlar daha kolay tespit edilebilir ve önlenebilir. Ek olarak, sıfır itimat ile hiç kimseye varsayılan olarak güvenilmez ve erişim müsaadesi verilmeden evvel birden fazla doğrulama yapılması gerekir.

Kaynak: (BYZHA) Beyaz Haber Ajansı

Yorum yapın

Sitemiz bir sosyal içerik platformu ve haber sitesi olup çeşitli kategorilerde yayın yapmaktadır. Her türlü soru, görüş, öneri ve istekleriniz ayrıca reklam ve tanıtım yazısı talepleriniz için shmedya@proton.me adresine mail iletebilirsiniz.
gaziantep marangoz takipçi satın al mobile legends elmas hd film izle film izle instagram takipçi satın al likit antalya psikolog calculator kiralık konteyner kiralık yük konteyner kiralık konteyner ev kiralık şantiye konteyner yedek parçaları
pubg uc yükleme mlbb elmas pubg mobile uc valorant vp
film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle film izle