OpenAl şirketinin son buluşu GPT-3 isimli yapay zeka teknolojisi şiir yazabiliyor, metin çevirebiliyor, diyalog kurabiliyor. Bilim insanları bu buluşu hükümet süreçlerinin kötüye kullanımı ve sahte akademik makale yazabilecek olması gibi sebeplerden dolayı tehlikeli buluyor.
OpenAI şirketinin ürünü Generative Pre-Training Transformer 3 (GPT-3) GPT-3, Elon Musk ve Sam Altman tarafından kurulan OpenAI’in üzerinde birkaç yıldır çalışma yürüttüğü bir yapay zekâ teknolojisi. Başka bir deyişle de OpenAI’ın 2015 yılında bir milyar dolardan fazla bir yatırımla toplum yararına insan düzeyinde yapay zekâ teknolojisi üretmek için ortaya çıkardığı son buluşu. BBC’deki habere göre GTP-3 ismi verilen yapay zekâ yazılım teknolojilerinde ve tasarımda olmak üzere pek çok endüstride de kullanılabilecek. GPT-3 şu an hâlâ sınırlı sayıda kullanıcı tarafından beta olarak kullanılabiliyor. Peki, (GPT-3), Türkçesiyle “Üretken Ön İşlemeli Dönüştürücü 3” açılımına sahip yapay zekâ teknolojisi nerelerde ve nasıl kullanılır? GPT-3’ü en basit anlatımla doğal dil işleme sinir ağı olarak tanımlamak mümkün. Bir dil öngörücü olan ürün, beslediğiniz içeriğin ardından neyin gelmesi gerektiğini tahmin ediyor. Ya da komutlarınızı hayata geçiyor.
Birçok insan özelliğine sahip
GPT-3 isimli yapay zeka teknolojisi şiir yazabiliyor, metin çevirebiliyor, diyalog kurabiliyor. GPT-3, insanların çevrimiçi olarak yayımladıkları şeyin çoğuna etkili bir şekilde sahip. Algoritma, internette bulunan tüm bu metinleri, aldığı metin girişine dayalı olarak istatistiksel olarak makul bir cevap oluşturmak için kullanıyor. Ve hangi cevabın en makul olduğunu anlamak için çok sayıda veriye sahip olduğundan, tahminler de oldukça doğru olma eğiliminde. Bu yapay zekânın algoritmasıyla geliştirilmiş bir web sitesi oluşturucusuna, yapmak istediğiniz her şeyi düz metin olarak yazmanız yeterli olacak.
Tehlike olarak görülüyor
GPT-3, 2019 yılında yayımlanan GPT-2’nin geliştirilmiş üçüncü nesil hâli. Yayımlandığı dönemde GPT-2 için yapılan en yaygın yorum, çok tehlikeli olduğuyla alakalıydı. Öyle ki, GPT-2’nin yazdığı metinlerin insan elinden çıkıp çıkmadığı anlaşılamadığı için böyle bir yorum yapılıyordu. İlk olarak GPT adıyla yayımlanan algoritmada 110 milyon ayarlanabilir parametre varken, bu sayı GPT 2’de 1,5 milyara ulaştı. GPT-3’te ise 175 milyar parametre var. Parametrelerin çokluğu yapay zekânın öğrenmesini kolaylaştırıyor. Bu yüzden GPT-3 için “bugüne kadar üretilmiş en tehlikeli algoritma” yorumları da yapılıyor. GPT-3’ün DeepFake gibi platformlarda yalan haber üretme potansiyeli, yapay zekâ ürününe teknoloji dünyasında korkuyla yaklaşmak için bir sebep olarak gösteriliyor. Öte yandan GPT-3’ün tehlikeli olabileceğine dair diğer nedenler arasında ise hükümet süreçlerinin kötüye kullanımı ve sahte akademik makale yazabilecek olması gibi sebepler gösteriliyor. New York Times köşe yazarı Farhad Manjoo, gazetenin 29 Temmuz 2020 tarihli sayısında yayımlanan incelemesinde GPT-3 için “Düz yazının yanı sıra bilgisayar kodu ve şiir üretebilen bu yapay zekâ, sadece ‘şaşırtıcı’ ve ‘ürkütücü’ değil. Aynı zamanda dehşet verici” yorumunda bulundu.