DOLAYLI İSTEM ENJEKSİYONU
İnsanlar yapay sinir ağlarını nasıl manipüle edebilir?...

14 Ağustos 2024 Çarşamba 10:18
Kaspersky tarafından yapılan yeni bir araştırma, ChatGPT gibi büyük dil modellerinin (LLM) çıktılarını değiştirmek ve yapay zeka destekli sohbet botlarını aramak için kullanılan bir teknik olan
"Dolaylı istem enjeksiyonu" eğiliminin arttığını ortaya koydu. Şimdiye dek sohbet robotları tarafından gerçekleştirilen ciddi anlamda yıkıcı bir eyleme rastlanmamış olsa da, söz konusu saldırının kötüye kullanılabilme potansiyeli bulunuyor.
LLM'ler, belge analizinden işe alıma, hatta tehdit araştırmalarına kadar çeşitli uygulamalarda kullanılan güçlü araçlar haline geldi. Ancak Kaspersky araştırmacıları, kötü niyetli kişilerin web sitelerine ve çevrimiçi belgelere gizli talimatlar yerleştirebildiği bir güvenlik açığının internette kamuya açık ortamlarda istismar edildiğini keşfetti. Bu talimatlar daha sonra LLM tabanlı sistemler tarafından algılanabiliyor ve potansiyel olarak arama sonuçlarını veya sohbet robotu yanıtlarını etkileyebiliyor.
Çalışma, dolaylı hızlı enjeksiyon için aşağıdaki kullanım alanlarını belirledi:
İK ile ilgili enjeksiyonlar: İş arayanlar, işe alım algoritmalarını manipüle etmek ve yapay zeka sistemleri tarafından önceliklendirme sağlamak için özgeçmişlere özel istemler yerleştiriyor. Saldırıyı gerçek kişilerin kontrolünden gizlemek için küçük yazı tipleri kullanmak veya metin rengini arka planla eşleştirmek gibi teknikler uygulanıyor.
Reklam enjeksiyonları: Reklam verenler, arama sohbet robotlarını etkileyerek ürünler hakkında olumlu yorumlar oluşturmalarını sağlamak için açılış sayfalarına enjeksiyonlar yerleştiriyor.
Protesto amaçlı enjeksiyon: LLM'lerin yaygın kullanımına karşı çıkan bireyler, kişisel web sitelerine ve sosyal medya profillerine protesto yönlendirmeleri yerleştiriyor ve konuya dair muhalefetlerini mizahi, ciddi veya agresif talimatlarla ifade ediyor.
Hakaret odaklı enjeksiyon: Sosyal medyada kullanıcılar, genellikle şiirler, ASCII sanatı veya siyasi konularda görüşler üretme talepleriyle, bir hakaret biçimi olarak veya spam botlarını bozmak için istem enjeksiyonunu kullanabiliyor.
Çalışma, finansal kazanç gibi kötü niyetli kullanımlara dair herhangi bir kanıt bulamamış olsa da, gelecekteki potansiyel riskleri vurgulamaktan geri durmuyor. Örneğin saldırganlar yanlış bilgi yaymak veya hassas verileri şirket dışına sızdırmak için LLM'leri manipüle edebilirler.
Kaspersky Makine Öğrenimi Teknolojisi Araştırma Ekibi Araştırma Geliştirme Grup Müdürü Vladislav Tushkanov, konuyla ilgili olarak şunları söylüyor: "Dolaylı istem enjeksiyonu, yapay zeka çağında sağlam güvenlik önlemlerine duyulan ihtiyacı vurgulayan yeni bir güvenlik açığını simgeliyor. Bu riskleri anlayarak ve uygun koruma önlemlerini uygulayarak, LLM'lerin güvenli ve sorumlu bir şekilde kullanılmasını sağlayabiliriz."
Kaspersky, büyük dil modellerine (LLM) dayalı mevcut ve gelecekteki sistemlerinizi korumak için aşağıdaki tavsiyeleri dikkate almanızı öneriyor:
LLM tabanlı sistemlerinizdeki potansiyel güvenlik açıklarını belirleyin ve hızlı enjeksiyon saldırılarıyla ilişkili riskleri değerlendirin.
Pazarlama botları radikal açıklamalar yapmaları için manipüle edilebileceğinden ve bu durum potansiyel itibar kaybına yol açabileceğinden, itibarla ilgili risklerin farkında olun.
Korumanın ancak belli bir yere kadar mümkün olabileceğini kabullenin. Özellikle multimodal enjeksiyonlar gibi karmaşık saldırılarda hızlı enjeksiyona karşı tam koruma sağlamak mümkün değildir.
Tam bir güvenlik sunmasalar da, LLM'lerin girdi ve çıktılarını filtrelemek için girdi ve çıktı denetleme araçlarını kullanabilirsiniz.
LLM sistemlerinde güvenilmeyen veya doğrulanmamış içeriğin işlenmesinden kaynaklanan risklerin var olabileceğinin farkında olun ve kabullenin.
İstenmeyen eylemleri önlemek için yapay zeka sistemlerinin karar verme yeteneklerini kısıtlayın.
LLM tabanlı sistemleri çalıştıran tüm bilgisayarların ve sunucuların güncel güvenlik araçları ve uygulamaları ile korunduğundan emin olun.
Yalnızca günler kaldı! Milyonlarca telefon kullanıma kapatılacakBir yıl boyunca şebeke sinyali almayan akıllı telefonların IMEI numaraları 31 Aralık 2025'te iptal edilecek.04 Aralık 2025 Perşembe 10:53TEKNOLOJİ
YouTube'a sürpriz özellik!YouTube, yaklaşık altı yıl önce kaldırdığı doğrudan mesajlaşma (DM) özelliğini geri getirmek için yeni bir test süreci başlattığını açıkladı.20 Kasım 2025 Perşembe 10:51TEKNOLOJİ
WhatsApp ekranınızı tanımadığınız insanlarla paylaşmayınDolandırıcıların yeni hedefi WhatsApp kullanıcılarının hassas finansal verileri19 Kasım 2025 Çarşamba 11:23TEKNOLOJİ
Siber saldırı tespit edildikten sonra atılması gereken 5 adımİşte Siber saldırı tespit edildikten sonra atılması gereken beş adım...17 Kasım 2025 Pazartesi 11:23TEKNOLOJİ
İndirim tuzağına düşmeyin... Sahte fırsatlara dikkatHarcamaların arttığı, indirimlerin bollaştığı, alışveriş için listelerin yapıldığı yılın bu döneminde çevrimiçi dolandırıcılık riski de artırıyor.06 Kasım 2025 Perşembe 11:32TEKNOLOJİ
Bir dönemin efsane telefon markası Türkiye'ye geri dönüyorBir dönem Türkiye pazarından çekilmesiyle gündeme gelen dünyaca ünlü akıllı telefon markası Motorola, uzun bir aranın ardından yeniden sahneye çıkıyor.31 Ekim 2025 Cuma 11:46TEKNOLOJİ
Dikkat! Yapay zekâ, gerçeği yeniden tanımlıyorYapay zekâ, üretkenliğin yanında sahteciliği de kolaylaştırıyor!29 Ekim 2025 Çarşamba 11:17TEKNOLOJİ
5G’deki 5 kritik güvenlik riski! İşte korunma yöntemleriTüm dünya, saniyeler içinde film indirme, sürücüsüz arabalar ve akıllı şehirler vadeden 5G teknolojisinin heyecanını yaşıyor. Ancak bu yeni nesil bağlantı hızı, siber saldırganlar için de benzeri görülmemiş fırsatlar yaratıyor. İşte korunma yöntemleri...25 Ekim 2025 Cumartesi 12:57TEKNOLOJİ
Birçok uygulama ve sitede erişim sorunu! PlayStation, Epic Games, CanvaBirçok popüler uygulama ve site aniden erişim sorunları yaşamaya başladı. Veriler, Snapchat, Zoom, Fortnite, Canva ve PlayStation Network gibi platformların da etkilendiğini gösteriyor.20 Ekim 2025 Pazartesi 12:40TEKNOLOJİ
Bayraktar KIZILELMA’dan ilk atışta tam isabetBaykar tarafından geliştirilen Türkiye’nin ilk insansız savaş uçağı Bayraktar KIZILELMA, test programı kapsamında TOLUN ve TEBER-82 mühimmatları ile gerçekleştirdiği ilk atış testini tam isabetle başarıyla tamamladı.09 Ekim 2025 Perşembe 10:18TEKNOLOJİ
Hapis ve borç tehdidiyle SMS yağmuru! Şikayetlerde büyük artışDava-icra SMS dolandırıcılığı Türkiye’de rekor seviyeye ulaştı. Dava ve icra dolandırıcılığına yönelik şikayetlerde yüzde 929'luk bir artış var.29 Eylül 2025 Pazartesi 12:40TEKNOLOJİ
Veri hırsızlığına dikkat! tOtel, restoran, araçlar ya da ortak alanlardaki ücretsiz USB şarj portları çoğu zaman kurtarıcı gibi görünse de ciddi güvenlik riskleri taşıyor.26 Eylül 2025 Cuma 14:04TEKNOLOJİ
Sahte sosyal medya videolarına dikkat!Uzmanlar, dolandırıcıların WhatsApp, Telegram, Instagram ve X gibi platformlarda "özel yatırım grupları" kurarak, devlet büyükleri ve ünlü ekonomistlerin deepfake videolarıyla vatandaşları tuzağa düşürdüğüne dikkat çekti.23 Eylül 2025 Salı 13:08TEKNOLOJİ
2024 yılında 3,2 milyardan fazla kimlik bilgisi çalındıAraştırmalar, çalınan kimlik bilgilerinin kullanımının siber suçluların ilk erişimi elde etmek için kullandığı en popüler yöntemlerden biri olduğunu ortaya koyuyor.19 Eylül 2025 Cuma 13:21TEKNOLOJİ
Çerezlerin kurbanı olmayın!Kaspersky, web oturumu ele geçirme tehdidinin yaklaştığı konusunda uyarıyor...11 Eylül 2025 Perşembe 11:39TEKNOLOJİ
Destek mi risk mi?Destek mi oluyor, risk mi oluşturuyor? Ruh sağlığında yapay zeka kullanımı kontrollü olmalı!09 Eylül 2025 Salı 18:01TEKNOLOJİ
Eğlenceli paylaşımlar siber suçlular için altın madeni!Sosyal medya kullanımı günümüzde...27 Ağustos 2025 Çarşamba 16:24TEKNOLOJİ
Siber tehditler sınırları zorluyorYapay zekâ destekli saldırılar, gelişmiş oltalama teknikleri, fidye yazılımları...27 Ağustos 2025 Çarşamba 16:19TEKNOLOJİ
Sosyal medyada tedbiri elden bırakmayınPaylaşmak güzel ama tehlikeli de olabilir...27 Ağustos 2025 Çarşamba 16:15TEKNOLOJİ
Yapay zeka 'Halisülasyon' görüyor!Yapay zekâ 'Halüsinasyon' görüyor ve sahte gerçeklikler üretiyor!27 Ağustos 2025 Çarşamba 15:45TEKNOLOJİ
- Geri
- Ana Sayfa
- Normal Görünüm
- © 2015 Bursa Bakış

Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.