
Bilgisayar bize somut, duygusuz, tarafsız bilgiler verir. Öyle mi cidden? Bundan emin miyiz? Nasıl emin olabiliriz?
Yapay zekâ denince eskiden aklımıza bilinç sahibi robotlar ya da düşünmeye, duygular hissetmeye başlayan bilgisayarlar gelirdi. Şimdi ise yapay zekâ kavramı daha çok ChatGPT, OpenAI, Gemini gibi “üretken” yapay zekâları getiriyor akla. Bu tür “üretken” yapay zekâların eskisi gibi bilinç sahibi olmadığını çoğumuz algılayabiliyoruz lakin zekâlarına yapaylıklarından daha çok güveniyoruz gibime geliyor. Bilgisayar hata yapamaz sonuçta. Yapar mı?
Bilgisayar bize somut, duygusuz, tarafsız bilgiler verir. Öyle mi cidden? Bundan emin miyiz? Nasıl emin olabiliriz?
Sanırım bu yazıya başlarken söylemem gereken ilk şey benim bu tarz yapay zekâları kullanmayan ve benzer şekilde kaldığı sürece asla kullanmayı düşünmeyen birisi olduğum. Buna rağmen bu yazıyı yazarken tarafsız bir yerden araştırma yapmak için çok çaba harcadığımı belirtmek isterim. Ayrıca bir küçük hukukçunun anlayacağından daha büyük bir konu olmasından ötürü bu konu üzerinde çalışan dostum Elin’den de yardım aldım. Çünkü bu yazıyı teknolojiye karşı olduğumdan dolayı yazmıyorum (internet üzerinden gönüllülük yaptığım bir örgütün sadece internet üzerinden erişilebilen yerinde bu yazıyı paylaşırken teknoloji karşıtı olmam absürt olurdu). Ben daha çok kapitalizme ve faşizme karşı bir yerden bu tarz yapay zekâları değerlendirmeyi öneriyorum.
Zekâ nedir diye sorup felsefi bir değerlendirme yapmak yerine “üretken” yapay zekâların (GenAI olarak da duyabilirsiniz bu kavramı) yapaylığı, bu yapaylığın nasıl kurulduğunu, neden yapay değilmiş gibi hissettirdiğini, bu yapaylığın kime hizmet ettiğini açıklamaya çalışacağım. Yapaylık kısmı daha önemli ve kuşkusuz en büyük sıkıntısını ortaya çıkarıyor.
Teknoloji içerisinde dil modeli olarak anılan, makinelerin konuşmalar içerisindeki örgüleri analiz ederek bir kelimeden sonra hangi kelimenin gelme olasılığının daha yüksek olduğunu tahmin etmesi yeni bir şey değil. Telefon klavyesinin yaptığı auto-correct/t9 veya auto-complete yani otomatik tamamlama işlemleri de bunun sonucunda ortaya çıkmıştır. Geniş Dil Modelleri (Large Language Model, LLM) de benzer bir prensibe dayanır; ancak farklı bir teknik altyapı kullanır. Büyük miktarda metin üzerinde eğitilerek bir cümlenin nasıl devam edeceğini tahmin eder ve dilin doğal kullanım biçimini taklit eder. Önceden eğitilmiş “üretken” dönüştürücü (Generative Pre-trained Transformer, ChatGPT’nin GPT’si işte budur) modeller ise bu geniş dil modeli ailesine ait bir mimaridir. Yani bu sistemler, önceden yazılmış işleri inceleyerek insanları taklit etme özelliğine sahiptir.
Bunun ucuz bir taklit olup olmadığı konusunda kararı siz verin.
Hissetmeseler veya düşünmeseler bile, bir aracın insanı bu kadar (ucuz bir şekilde olsa da) taklit etmesi teknolojinin etkileyiciliğini gerçekten çok büyük bir dönüşüm. Üstelik bu artık bir metin olmak zorunda da değil; video, resim, ses ve buna benzer bir sürü veriyi taklit edebiliyor. Olmayan bir insanın varlığına bizi inandırabiliyor. Eminim ki hepimiz bir veya birden fazla şekilde olmayan bir şeyin varlığına inandık bu şekilde. Hatta o durumdayız ki gerçek şeylerin yapay zekâ olup olmadığı konusunda şüphelenmeye başladık.
Peki, bu yapaylığın taklidi neden var? Yani amacı ne? Neden böyle bir yapaylığa yol verdik? Bu noktada incelememi özellikle OpenAI adlı şirket üzerinden yapacağım, çünkü zaten şu anda markette olan bir sürü yapay zekâ, bu şirketin modelini kullanıyor. Bunu yaparken OpenAI şirketinin kuruluşunda sahiplerinin söz vermiş olduğu şekle bakarak ilerlemeyi düşünüyorum
ChatGPT ve Sora’yı yaratan OpenAI adlı şirket, OpenAI’yı Tanıtmak (Introducing OpenAI) adlı yazılarında belirttikleri gibi kar gütmeyen bir kurum olarak 2015 yılında kuruldu. Kar gütmeyen şirket olma amacını “insanlığın iyiliği” ve “kötü adamların karşısında iyi adamlar” olmak şeklinde kurarak etiksel bir ilke ortaya koyuyorlar; amaçları insanlığı geliştirmek ve bunu teknoloji ile yapmaktı. Aşırı iyimser bir bakış açısı olduğunu hepimiz söyleyebiliriz. Nitekim 2019’da “sınırlı-kar güden” bir şirkete dönüşmeleri kimseyi şaşırtmadı. 2019’daki yaptıkları güncelleme ile kar gütmeyen OpenAI adlı şirket, OpenAI LP adında bir limited şirket kurarak ve bu şirket altında OpenAI Nonprofit adında kar gütmeyen bir kurum yaratarak hibrit bir modele geçtiğini duyurdu. Şirketin yaptığı bu duyuruda Elon Musk’ın hem Nonprofit kısmından ayrıldığını hem de LP ile şirketle ilişkisinin kurulmadığını belirterek OpenAI ile olan ilişkisinin kesildiği de belirtildi. Unutmayalım ki 2019’da dünya Elon Musk’ı hala teknolojinin iyilik meleği olarak görüyordu, Nazi selamı yapan faşist olarak değil
“Araştırmamız finansal yükümlülüklere bağlı olmadığından olumlu insan etkisine odaklanabileceğiz.”
28 Ekim 2025 tarihinde, kendi vizyonundan asla vazgeçmeyeceğini söyleyen ve her zaman bunun sorumluluğunu alacağını iddia eden bu şirket kâr güden, “kamu yararına çalışan” bir şirket haline geldi. Kâr amacı gütmeyen OpenAI şirketi bir Vakıf oldu, OpenAI LP ise OpenAI PBC oldu. Tüm paydaşların daha geniş ölçekteki çıkarlarını göz önünde bulundurarak misyonunu koruyacağını söyledi.
Gizliliğin güvenliği tehlikeye atacağını ileri süren ve her zaman açıklık sözü veren OpenAI şirketinin, sadece gelişimi hakkında değil, ayrıca geliştirdikleri ürünler konusunda da her zaman herkese açık olacağı vaadini görüyoruz. Lakin ChatGPT’nin şu anki fiyatlandırmasında ücretsiz olan planının aşırı kısıtlı, en düşük planının ayda 6, en yüksek planının ise ayda 200 dolar olduğunu görüyoruz. Video temelli Sora AI ise yine aşırı kısıtlı bir ücretsiz plan dışında en düşük planı ayda 29, en pahalı planı ayda 200 dolar olarak karşımıza çıkıyor. Bunun yanında Codex yani OpenAI şirketinin yazılım geliştirmek için bilgisayar kodu aracı ücretsiz kullanıma değil, sadece ücretsiz denemeye açık; en ucuz planı ayda 20, en pahalısı ise ayda 200 dolardır.
Sam Altman’ın Vanity Fair ile 2015 yılında yaptığı röportajdan bir kesit de eklemek isterim: “Bence teknolojiyi güvenli tutmanın sadece birkaç yolu var, ve bunlardan biri gizliliğin hiçbir zaman işe yaramadığıdır. Bu yüzden birisinin A.I geliştirecek ve bunu gizli tutacak olduğu fikri bence başarısızlıkla sonuçlanır.”
Bu yukarıda herkese açık bir yapay zekâ kısmından sonra, herkes için güvenli bir yapay zekâ ortamı, herkesin bilgilendirildiği, sırdan uzak bir yapay zekâ gelişimi hususunda ise A Right To Warn adlı açık bir mektup karşımıza çıkıyor. Eski veya güncel OpenAI, Google Deepmind (Gemini öncesi adı) ve Anthropic çalışanları tarafından imzalanmış ve “Yapay Zekanın Godfatherları” olarak bilinen bilgisayar bilimcilerinin desteklediği bu açık mektupta sorun edilen mesele, yapay zekâ şirketlerinin insanları gelişmiş yapay zekânın riskleri hakkında uyarma yükümlülüğü olduğundan bahsediyor. Kamu yararını güttüğünü iddia eden bir şirkette kamunun bu yapay zekâ riskleri hakkında bilgilendirilmemesi bir tezatlık oluşturur. Bu da aslında kamu güvenini sarsar; bilgilendirilmiyoruz, bilgilenemiyoruz ve gizlilik içinde yaşıyoruz.
Bu konuda önemli olan ayrı bir sorun ise; bu “üretken” yapay zekâların hangi verilerle eğitildiği hakkında kesin ve açık bir bilgi olmamasıdır. Şu andaki verinin kendi kullanıcılarının verdikleri bilgiler olduğunu söyleyebilsek de GPT olmasından dolayı pre-trained yani öncelikli eğitilmiş bir model olduğunu anlayabiliyoruz. Bu da insanların internet üzerinde paylaştıkları her şeyin yapay zekâ adına kullanılıp kullanılmadığı sorusunu akla getiriyor. Örneğin, Studio Ghibli stilinde yapılan “üretken” yapay zekâ resimlerinin rıza alınmadan yapıldığı apaçık ortadayken hala kullanılıyor olunması en hafif haliyle tiksindiricidir.
OpenAI adlı şirketin bu noktaya kadar anlattığımız sıkıntılarını bütün AGI / GenAI / “üretken” yapay zekâ modeline sahip şirketlerde görebiliriz; bu yüzden kullanılması bence yeterince etiksel sorun barındırıyor. Lakin bu yazıyı yazmamın nedeni meselenin özellikle de biz lubunlar için daha büyük bir sorun teşkil etmesidir.
OpenAI veya ChatGPT dendiğinde akla ilk gelen kişi Sam Altman’dır; kurucu üyelerinden olan Altman şirketin yüzü haline gelmiş ve bu yüzden yeterince medyatik bir kişilik olmuştur. Önceki yöneticilerinden Musk kadar olmasa da Musk gibi bilinen birisi olan Altman maalesef ki şu andaki tek yönetici değildir. Bu yöneticiler içerisinde Greg Brockman da vardır; hatta kendisi 2023’te Altman ile beraber şirketten atılmış, sonrasında geri gelmiş, kişisel bir ara aldıktan sonra tekrardan şirkete geri dönmüştür. Kamunun yapay zekâ hakkında düşündüklerini değiştirmek adına politikaya atıldığını söyleyen Brockman yapay zekayı önemli gören siyasetçileri destekleyeceğini, çünkü onların az sayıda olduğunu söyledi. Peki bu açıklamaları neden mi yaptı?
2025 yılında MAGA bağışları incelendiğinde, kendi adına 12.5 milyon dolar, karısı adına 12.5 milyon dolar bağış yapıldığı ortaya çıktı ve bu yüzden WIRED kendisine sorular yöneltti.
Bu noktada hatırlatmak gerekir ki, bilim, doğal veya beşerî fark etmeksizin, fikirlerimiz dışına çıkamaz. Bir kişinin yaptığı araştırma onun olduğu kişiye bağlıdır; neyi düşünmek istediğine, hangi soruyu sorduğuna ve soruya nasıl cevap verdiğine bağlıdır. OpenAI tarafından yürütülen “üretken” yapay zekaların eğitildikleri veriler beşerî verilerdir; yazılan bir kitap, konuşulan bir grup, bir kişinin çektiği fotoğraf… Hepsi gerçek insanların kendi bakış açılarıyla ürettikleri verilerdir. Bunu bilimsel olarak yapılan araştırmalarda görebiliriz. Yapay zekâların cinsel yönelim ve cinsiyet stereotipleri yarattığına dair bir sürü bilimsel makale erişime açık. Yani yapay zekâ mevcut toplumsal oluşun ucuz bir taklididir. Yapay zekânın verilerinin güvenilir, doğru ve tarafsız olmasını beklemek ve bu aracı kullanmaya devam etmek demek, açıkça bizim tarafımızda olmayan bu milyonerlerin bize paralarıyla zarar vermesine izin vermek demektir.
Peki bunun yerine ne mi yapabiliriz? Eskiden ne yapıyorduysak onu. Araştırmalarımızı yaparken arama motorlarını kullanabilir, sorularımız için (çok fazla olmasa da) daha güvenilir olan Reddit topluluğuna gidebiliriz. Resimlerimiz için Picrew websitesinden istediğimiz bir profil fotoğrafını kendi ellerimizle kolajlayabilir, photoshop ile istediğimiz kurguyu resimlendirebiliriz. Her gün şarkı söyleyerek, çalmak istediğimiz enstrümanı çalarak, MIDI (Musical Instrument Digital Interface, dijital arayüzlü müzik aleti) yükleyerek müzik yapabiliriz. Bir işe “Çok zaman harcanacak” olması kötü bir şey değildir; hatta bu zamanın verilmiş olması emek gösterir ve her ne kadar hatalı olursak olalım, bizi ancak bu emek tatmin eder. Sosyalleşmek için yapay zekâyı kullananlara küçük internet topluluklarına katılmayı öneririm. Bu hem sosyal ihtiyaçlarınızı daha iyi karşılayacak hem de sosyal becerilerinizi geliştirmenizi sağlayacaktır. Bunu yapmanız sizin psikoz yaşama riskinizi de azaltacaktır.
Size ne yapmanız gerektiğini söyleyemem ama “üretken” yapay zekâların ancak ve ancak size zararlı olduğunu söyleyebilirim; bu bilgiyle ne yapmak istediğiniz sizinle kalmış. Dayanışmayla birlikte, yalnızlaşmadan ırak kalın, dostlar. Biz hep birlikte ayakta kalacağız, yapay zekâ aracılığıyla bireyselleşmeyi önde tutarak mücadelemize zarar veren araçlarla değil.
1. Şimdi “üretken” kavramını neden tırnak içinde kullandığımı da açıklamak isterim; İngilizcede generative kullanılıyor. Generative, genesis kavramından türeten bir kelimedir; doğumdan. Bu yüzden çeviri olarak “üretken” kullanılır. Lakin generative kavramının kullanılmasını hatalı buluyorum, çünkü bir şey üretmiyor; zaten var olan bir veriyi türetiyor, bu yüzden türetken (derivative) olarak adlandırmak yanlış pazarlamanın da önüne geçer. Tabii ki benim burada böyle kullanmam yılların bilinmişliğini değiştirmeyecek lakin belirtmek benim için önemli bir husus.
2. Bu konuda daha detaylı okumak isterseniz, İngilizce kaynak olarak Not for Private Gain adlı blogun açık mektuplarını okuyabilirsiniz:
3. Bunlar sadece Türkiye bağlamında uçuk rakamlar değil. Amerika Birleşik Devletleri’nde de ortalama gelirli birisi için aşırı yüksek fiyatlandırmalardır. Yani kendi misyonlarından, sadece kar gütmeyen ve hissedarları ön plana koymayan bir şirket olmaktan değil, insanların ulaşabileceği ve geliştirebileceği bir kurum olmaktan da vazgeçmişlerdir.
4. MAGA (Make America Great Again) Trump’ı bağımsız desteklemek ve kampanyasında destek vermek isteyenlerin bağış yaptığı kurumdur:
5. Ruby Ostrow / Adam Lopez, LLMs Reproduce Stereotypes of Sexual and Gender Minorities, https://arxiv.org/abs/2501.05926; Harnoor Dhingra / Preetiha Jayashanker / Sayali Moghe / Emma Strubell, Queer People are People First: Deconstructing Sexual Identity Stereotypes in Large Language Models, https://arxiv.org/abs/2307.00101
6. Ayrıca her ne kadar yapay zekânın zekâ kısmına girmeyeceğimi söylesem de zekânın yapay hali olduğu söylenerek yaratılan sansasyonel etkiyi görmezden gelmek mümkün değil. Bu nedenle dilbilimci Emily M. Bender ve sosyolog Alex Hanna tarafından yazılmış The AI Con: How to Fight Big Tech's Hype and Create the Future We Want ile teknoloji filozofu Mark Coeckelbergh ve iletişim teknolojisi alanında çalışan David J. Gunkel tarafından yazılan Communicative AI: A Critical Introduction to Large Language Models adlı çalışmaları önermek isterim. Bu iki kitap ve dört bilimcinin diğer çalışmaları, yapay zekânın “zekâ” olarak sunulmasının problemli yönlerini tartışır ve aslında bu sistemlerin tarafsız, “senin fikrinin önemi yok” diyen bir yapı olmadığını ortaya koyar.
7. Benim çok sevdiğim ve kitaplığı acayip geniş olan Decent Sampler’ı öneririm: https://www.decentsamples.com/
Müzik yapabilmek için de Reaper adlı uygulamanın bedava olan versiyonunun kullanımını sonsuza kadar kullanabilme şansınız var: https://www.reaper.fm/
Çerez Politikası
Size en iyi hizmeti sunabilmek ve reklam çalışmalarında kullanmak amacıyla sayfamızda çerezlerden faydalanıyoruz. Sayfamızı kullanmaya devam ederek çerez kullanımına izin vermiş oluyorsunuz. Çerezler hakkında ayrıntılı bilgiye Çerez Politikamız'dan ulaşabilirsiniz.