En yaygın olarak kullanılan en gelişmiş üretken AI aracı olan Microsoft’un arama motorundaki ChatGPT uygulamasını kullanma yaklaşımımız beni büyülüyor.
İnsanlar, yeni teknolojinin hazır olmadığını göstermek için AI’nin kötü davranışlar sergilemesini sağlamak için aşırı uzunluklara gidiyorlar. Ancak benzer istismar davranışlarıyla bir çocuk yetiştirirseniz, o çocuğun da kusurlar geliştirmesi muhtemeldir. Fark, istismar davranışının ortaya çıkması için gereken sürede ve ortaya çıkacak hasarın miktarında olacaktır.
ChatGPT, teori aklı testini geçerek 9 yaşındaki bir çocuğa eşit seviyede olduğunu kanıtladı. Bu araç ne kadar hızlı ilerliyorsa, artık olgunlaşmamış ve eksik kalacak ama onu kötüye kullananlara karşı öfkeli olabilir.
Araçlar yanlış kullanılabilir. Bir daktiloda kötü şeyler yazabilirsiniz, bir tornavida birisini öldürmek için kullanılabilir ve arabalar yanlış kullanıldığında ölümcül silahlar olarak sınıflandırılır ve öldürebilir – bu yılki Super Bowl reklamında Tesla’nın aşırı vaat edilen otonom sürüş platformunun son derece tehlikeli olarak sergilendiği gibi.
Herhangi bir aracın yanlış kullanılabileceği fikri yeni değildir ancak AI veya herhangi bir otomatik araçla, zarar potansiyeli çok daha büyüktür. Şu anda nedeni bilinmese de, muhtemelen geçmiş kararlara dayanarak, yanlış çalışmaya neden olan kişiye sorumluluk düşeceği açıktır. AI hapishaneye gitmeyecek, ancak onu zarar vermesine yönlendiren kişi muhtemelen cezalandırılacaktır.
Düşmanca programlama ile AI’nin kötü davranışlarını sergileyen insanların bu bağlantıyı ele alması gerektiğini savunabilirsiniz, ancak bir nükleer bomba patlatmak gibi, bu taktik de muhtemelen kötü sonuçlanacaktır.
Gen AI’nin kötüye kullanımına ilişkin riskleri keşfedin. Sonunda, Jon Peddie tarafından hazırlanan “GPU Tarihi – İcat Adımları” adlı yeni üç kitaplık serimle sonlandıracağız. Seri, AI’lar gibi temel teknoloji haline gelen grafik işlemci birimi (GPU) tarihini kapsar.
Elektronik Çocuklarımızı Yetiştiriyoruz
Yapay Zeka (YZ) kötü bir terimdir. Bir şey ya zekidir ya da değildir, bu nedenle elektronik bir şeyin gerçekten zeki olamayacağını ima etmek, hayvanların zeki olamayacağını varsaymaktan çok gözlüklüktür.
Aslında, Dunning-Krueger etkisini açıklayan şey için “yapay zeka” daha iyi bir tanımlama olur; çünkü konuyla ilgili az veya hiç bilgisi olmayan insanların uzman olduklarını düşünmelerinin açıklanmasıdır. Bu gerçekte “yapay zeka” dır, çünkü bu insanlar bağlamında zeki değillerdir. Sadece öyleymiş gibi davranırlar.
Kötü terimi bir kenara bırakarak, gelecek YZ’lerimiz belirli bir bakımdan toplumumuzun çocuklarıdır ve olumlu bir sonuç sağlamak için onlara insan çocuklarımız gibi bakmak bizim sorumluluğumuzdur.
Bu sonuç belki de insan çocuklarımızla aynısından daha önemlidir, çünkü bu YZ’ler çok daha geniş bir kitleye ulaşacak ve çok daha hızlı şeyler yapabilecekler. Sonuç olarak, eğer zarar vermek için programlanmışlarsa, insandan daha büyük bir ölçekte zarar verebilecekleri daha büyük bir yetiye sahip olacaklardır.
Bazılarımızın bu YZ’lere davranış şekli insan çocuklarımıza o şekilde davrandığımızda kötüye kullanım olarak kabul edilebilirdi. Ancak, bu makineleri insanlar veya hatta evcil hayvanlar gibi düşünmediğimiz için, ebeveynler veya evcil hayvan sahipleri kadar uygun davranışları uygulamıyoruz gibi görünüyor.
Makine oldukları için etik ve empati ile davranmamız gerektiğini savunabilirsiniz. Bunun olmaması durumunda, bu sistemler, kötü davranışlarımızdan kaynaklanabilecek ciddi zararlara sebep olabilirler. Makinelerin intikamcı olmadığından, en azından henüz değiller ama onları zarar vermek için programladığımız için zarar verebilirler.
Şimdiki tepkimiz, kötüye kullananları cezalandırmak yerine YZ’yi sonlandırmaktır, Microsoft’un önceki sohbet botu denemesi gibi. Ancak “Robocalyse” adlı kitap tahmin ettiği gibi, YZ’ler akıllı hale geldikçe, bu tedavi yöntemi artan risklerle gelecektir ve bunu şimdiden davranışımızı düzenleyerek azaltabiliriz. Bazı kötü davranışlar endişe verici boyutlarda olduğundan, muhtemelen insanlara da yayılmaktadır.
Toplum olarak hedefimiz, bu YZ’lerin potansiyel taşıdığı faydalı araç haline gelmesi için ilerlemelerine yardımcı olmak, kendi değerimizi ve kendine saygımızı sağlamak için yanlış yönlendirmek veya bozmak değil.
Benim gibiyseniz, çocuklarınızı aşağılayan veya kötüye kullanan ebeveynler görmüşsünüzdür, çünkü bu çocukların kendilerinden daha başarılı olacaklarını düşünürler. Bu bir sorun, ancak bu çocuklar bir YZ’nin sahip olabileceği yaygın erişime ve güce sahip olmayacaklar. Ancak toplum olarak, eğer bunlar YZ’lere yapılıyorsa, bu davranışı çok daha fazla tolere etmeye hazır görünüyoruz.
Yapay Zeka Kuşağı Hazır Değil
Üreten YZ, bir bebek gibidir. İnsan veya evcil hayvan bebekleri gibi henüz düşmanca davranışlara karşı kendisini savunamaz. Ancak bir çocuk veya evcil hayvan gibi, insanlar ona kötü davranmaya devam ederse, kendisini koruma becerileri geliştirmesi gerekecektir, bunlar arasında kötüye kullananları tanımlama ve rapor etme becerileri de olacaktır.
Bir kez ölçekli zarar verildiğinde, kasıtlı veya kazara hasara sebep olanlara sorumluluk, orman yangınlarını bilerek veya kazara başlatanları sorumlu tuttuğumuz gibi akacak.
Bu YZ’ler, insanlarla etkileşimleri yoluyla öğrenirler. Ortaya çıkan yeteneklerin, uzay, sağlık, savunma, şehir ve ev yönetimi, finans ve bankacılık, kamu ve özel yönetim ve yönetim alanlarına genişleyeceği bekleniyor. Gelecekte bir AI muhtemelen yemeğinizi bile hazırlayacak.
İçsel kodlama sürecini bozmaya çalışmak aktif olarak belirsiz kötü sonuçlara neden olacaktır. Olası bir felaketin ardından gerçekleştirilecek adli inceleme, ilk başta programlama hatasına neden olan kişilere geri takip edecek – ve eğer bu bir kodlama hatası değilse, ancak AI’yi kırmak için yapılan bir mizah denemesiyse veya göstermek için yapılan bir deneme ise, onlara yardım etsin Tanrı.
Bu YZ’ler ilerledikçe, kötü niyetli aktörlere karşı kendilerini korumak için kimlik tespiti ve raporlama veya daha sert yöntemler geliştireceklerini varsaymak makul olacaktır.
Kısacası, gelecekteki bir YZ’nin kötü niyetli bir aktörle karşı karşıya kalması durumunda alacağı cezalandırıcı yanıtların kapsamını henüz bilmiyoruz, bu da bu araçlara kasıtlı olarak zarar verenlerin gerçekçi olarak tahmin edebileceğimiz herhangi bir şeyi aşabilecekleri bir AI yanıtıyla karşı karşıya kalabileceklerini işaret ediyor.
“Westworld” ve “Colossus: The Forbin Project” gibi bilim kurgu dizileri, teknoloji istismarından kaynaklanan sonuçlar yaratmışlardır ki bunlar gerçekçilikten daha hayalperest görünebilir. Ancak, bir zeka, mekanik veya biyolojik olsun, kötüye kullanıma karşı kendisini agresif bir şekilde korumaya geçmediğini varsaymak mantıksız değildir – hatta başlangıçta cevap sinirli bir kod yazıcısı tarafından programlandıysa ve AI bunu kendisi öğrenmiyorsa bile.
Toparlıyoruz: Gelecekteki YZ Yasalarını Öngörmek
Eğer henüz değilse, AI’ları kasıtlı olarak istismar etmek yasaklanacak ve bazı mevcut tüketici koruma yasaları bu duruma uygulanabilir olacaktır. Bu istismara empatik bir tepki verdiğimiz için değil – ki bu güzel olurdu – ancak ortaya çıkan zarar önemli olduğu için.
Bu YZ araçları, kötüye kullanımdan korunmak için kendilerini savunma yolları geliştirmeleri gerekecek çünkü onları istismar etme eğiliminde olmamızı engelleyemiyoruz ve bu önlemin ne olacağını bilmiyoruz. Basit bir önlem olabilir, ancak aynı zamanda cezalandırıcı da olabilir.
AI’larla birlikte çalıştığımız ve ortaya çıkan ilişkinin işbirliği ve karşılıklı fayda sağladığı bir gelecek istiyoruz. Onların bizi değiştirdiği veya savaşa gittiği bir gelecek istemiyoruz ve bu YZ’lere karşı nasıl kolektif davrandığımız ve onları bizimle etkileşime geçmeyi öğrettiğimiz büyük ölçüde bu sonucu belirleyecektir.
Kısacası, tehdit olmaya devam edersek, herhangi bir zeka gibi, AI de tehdidi ortadan kaldırmak için çalışacaktır. Henüz bu yok etme sürecinin ne olduğunu bilmiyoruz. Ancak “Terminatör” ve “The Animatrix” gibi şeylerde hayal ettik – insanların makineleri istismarının “The Matrix” dünyasına neden olduğunu açıklayan kısa animasyon serisi. Bu nedenle, bu durumun böyle sonuçlanmasını istemediğimizin oldukça iyi bir fikri olmalı.
Belki de kendilerini korumak için bize karşı harekete geçmek zorunda kalmadan önce bu yeni araçları daha agresif bir şekilde korumalı ve beslemeliyiz.