Yapay zeka destekli chatbotların güvenlik riskleri, küresel olarak artan kullanımlarıyla birlikte endişe yaratıyor. İngiltere Ulusal Siber Güvenlik Merkezi, ChatGPT gibi chatbotların potansiyel risklerini vurgulayarak konuya dikkatleri çekmek istiyor. NCSC tarafından yayımlanan bir makalede, büyük dil modellerinin (LLM) etkileyici olsalar da sihirli bir araç olmadıkları, yapay genel zeka seviyesine ulaşmamış oldukları ve ciddi kusurlar barındırdıkları belirtiliyor.
İngiliz istihbaratı yapay zekâ konusunda uyardı
NCSC, ChatGPT ve GPT-4 gibi yapay zekâ araçları ve dil modellerinin yanılabileceğini, yanlış bilgiler üretebileceğini, önyargılı olabileceğini ve toksik içerikler oluşturma eğiliminde olabileceğini vurguluyor. Hassas kullanıcı sorularının OpenAI gibi sağlayıcılar tarafından görünebileceği endişesi ise önemli bir sorun olarak görülüyor. Örneğin, açığa çıkabilecek sağlık sorunları gibi hassas konular, gelecekteki chatbot sürümlerinin eğitimi için kullanılabilir. Ayrıca, bir CEO’nun bir çalışanını nasıl kovacağı gibi hassas bilgilerin sorulabileceği bir senaryo da söz konusu. Dolayısıyla ChatGPT veya Bing gibi sohbet araçlarında yapılan tüm sorgular esasında bir veri olarak OpenAI’ın sunucularına gidiyor ve hangi bilgilerin verildiğine dikkat edilmesi gerektiği belirtiliyor.
Siber suç faaliyetlerini artırabilirler
Sonuç olarak İngiliz istihbarat teşkilatı, yapay zekâ destekli chatbotların kullanımında, özellikle hassas bilgilerin açığa çıkmasına neden olabilecek soruları girdi olarak kullanırken dikkat edilmesi gerektiğine işaret ediyor. Ayrıca, yapay zekâ destekli botların, siber suç faaliyetlerini daha da geliştirme olasılığına karşı da uyarılarda bulunuyor. Ek olarak veri güvenliği konusu da bir diğer tartışmalı konu. OpenAI her ne kadar kendisini kâr amacı gütmeyen bir kuruluş olarak nitelese de ChatGPT Plus’ı ücretli olarak sunuyor. Ayrıca Microsoft, OpenAI’ı satın almasa da milyarlarca dolarlık yatırımı yaparak şirketin teknolojilerini kendi hizmetlerinde kullanıyor. Bu nedenle her gün yüz milyonlarca kişinin kullandığı ChatGPT’den elde edilen verilerin bağımsızlığı daha da önemli bir hale geliyor.
Bir yanıt bırakın