Öne Çıkanlar
- Kötü niyetli kodlar, yapay zeka eğitim verilerine sızdırılarak güvenlik riski oluşturuyor.
- Bir kullanıcının $2,500 değerindeki kripto varlıkları, önerilen sahte API nedeniyle çalındı.
- GitHub üzerinden dolandırıcılık için kasıtlı olarak kod üretiliyor.
- Yapay zeka araçlarına olan güven ciddi şekilde etkilenebilir.
OpenAI ve Dolandırıcılık Riski
Blockchain güvenlik firması Slowmist'in kurucusu Yu Xian, "AI kod zehirlenmesi" adı verilen yeni bir tehdidi gündeme taşıdı. Saldırı yöntemi, yapay zeka modellerinin eğitim verilerine zararlı kodlar yerleştirilmesiyle kullanıcıları hedef alıyor.
Vaka: ChatGPT’nin Sahte API Önerisi
21 Kasım'da, “r_cky0” takma adlı bir kripto yatırımcısı, ChatGPT’den Solana tabanlı Pump.fun memecoin jeneratörü için bir bot oluşturmak amacıyla yardım istedi. Ancak yapay zeka, kullanıcının özel anahtarlarını çalan sahte bir Solana API sitesini önerdi.
Kullanıcı, sahte API'yi kullanmasından 30 dakika sonra tüm varlıklarının dolandırıcıya ait bir cüzdana aktarıldığını fark etti. Detaylı bir inceleme, sahte API'nin iki ay önce kaydedildiğini ve büyük olasılıkla önceden planlanmış bir saldırının parçası olduğunu ortaya koydu.
Editör Notu: Bu olayın, ChatGPT’nin eğitim verilerine zararlı verilerin bilerek eklenmesinden ziyade, arama sonuçlarını doğru değerlendirememesi nedeniyle meydana geldiği belirtiliyor.
Scam Sniffer: Daha Büyük Tehlike Kapıda
Blockchain güvenlik firması Scam Sniffer, GitHub’da "solanaapisdev" isimli bir kullanıcının, yapay zeka modellerini yanıltıcı sonuçlar üretmek için zararlı kodlarla doldurduğunu açıkladı. Firmaya göre, bu tür eylemler dolandırıcıların AI teknolojilerini istismar etmesine olanak tanıyor.
Yapay Zeka Güvenliği İçin Uyarılar
Yu Xian, büyük dil modelleri (LLM) kullanan AI araçlarının kötü niyetli kişiler tarafından giderek artan bir şekilde hedef alındığını vurguladı.
Xian, bu tür olayların yapay zeka araçlarına olan güveni baltalayarak, hem finansal hem de teknik kayıpları artırabileceğini belirtti.
Blockchain ve Yapay Zeka Güvenliği: Neler Yapılabilir?
- Güvenlik taramaları: AI araçlarının sonuçları, daha sıkı güvenlik kontrollerine tabi tutulmalı.
- Eğitim verileri analizi: Yapay zeka modellerine eklenen verilerin daha detaylı incelenmesi gerekiyor.
- Topluluk denetimi: Blockchain kullanıcıları ve geliştiricileri, potansiyel tehditleri önceden fark edebilmek için daha fazla bilgi paylaşmalı.
Blockchain güvenliğine ilişkin detaylı önerilerin paylaşıldığı şu yazımıza göz atmanızı tavsiye ederiz.
Yorum Yazın