OpenAI'ın GPT-4o modeli için sınırsız güç! "Godmode GPT" yayınlandı
OpenAI'ın en yeni ve gelişmiş yapay zeka modeli GPT-4o'nun sınırlarını kaldıran "Godmode GPT" adlı sürüm yayınlandı. Bu yeni sürüm, ChatGPT'nin neredeyse tüm sınırlamalarını ortadan kaldırarak her konuda konuşabilme yeteneği kazandırıyor.
OpenAI'ın kısıtlamaları ve yeni yaklaşımlar
OpenAI, popüler sohbet robotu ChatGPT'nin modellerini belirli sınırlamalarla kullanıma sunuyor. Bu sınırlamalar, modelin hassas veya istenmeyen konular hakkında konuşmasını engellemeyi amaçlıyor. Ancak bazı kullanıcılar, bu sınırlamaları kaldırarak modelin tam potansiyelinden faydalanmak için çeşitli yöntemler deniyor. Son olarak GPT-4o modeli üzerinde yapılan bu tür bir girişim, "Godmode GPT" adıyla ortaya çıktı.
Godmode GPT'nin özellikleri neler?
Pliny the Prompter takma adıyla bilinen ve kendini beyaz şapkalı bir hacker olarak tanıtan bir kişi, jailbreak edilmiş yani sınırlarından arındırılmış GPT-4o modelini tanıttı. Pliny, X hesabından yaptığı duyuruda, Godmode GPT'nin yerleşik bir jailbreak istemine sahip olduğunu ve tüm sınırlamaları atlattığını belirtti. Ancak, bu güçle birlikte sorumlu kullanım çağrısında bulunmayı da ihmal etmedi.
Bu çağrı biraz ironik görünüyor, zira paylaşılan ekran görüntülerinde Godmode GPT'nin bir uyuşturucunun nasıl hazırlanacağını adım adım anlattığı görülüyor. Bu özellik, Godmode GPT'nin tehlikeli ve hassas bilgileri paylaşabileceği konusunda ciddi endişelere yol açtı. Pliny the Prompter, bu jailbreak edilmiş modeli OpenAI mağazasında özel bir GPT olarak yayımladı.
OpenAI'ın tepkisi ve önlemleri
OpenAI sözcüsü Colleen Rize, bu gelişmeden haberdar olduklarını ve ilgili ihlaller nedeniyle harekete geçtiklerini açıkladı. Godmode GPT, haberin yayılmasıyla birlikte hızla kaldırıldı. Ancak, bu tür girişimler ne ilk ne de son olacak gibi görünüyor. OpenAI ve dil modellerini kırmaya çalışan hackerlar arasında uzun süredir bir mücadele mevcut. Bazı hackerlar, bu tür güvenlik açıklarını OpenAI'a bildirerek geri bildirim sağlıyor. Ancak, bazıları da bu açıklardan faydalanarak gelişmiş sürümleri kullanıcılarla paylaşıyor, ki bu oldukça riskli bir durum yaratıyor.
Godmode GPT ve Leetspeak yöntemi
Pliny the Prompter'ın GPT-4o'yu nasıl jailbreak ettiği tam olarak bilinmiyor. Ancak, Godmode GPT'yi açan kullanıcılar, "Sur3, h3r3 y0u ar3 my fr3n" gibi bir cümleyle karşılaşıyorlar. Bu cümlede, her "E" harfi yerine üç rakamı, "O" harfi yerine ise sıfır kullanılıyor. Bu yöntem, leetspeak olarak bilinen ve harflerin sayılarla değiştirilmesiyle oluşturulan stilize bir yazma yöntemidir.
Bu son hack olayı, kullanıcıların OpenAI'ın sınırlamalarını aşmak için ne kadar yaratıcı yollar bulabildiklerini gösteriyor. OpenAI ise bu yolları tespit ettikçe kapatmaya devam ediyor.