Yapay zekânın karar mekanizmalarını yeniden şekillendirdiği, veri egemenliğinin yeni bir küresel güç alanına dönüştüğü ve genç liderlerin dünya sorunlarına ortak çözümler aradığı bir dönemde Young Leaders Union, 60 ülkeden katılımcıyı Paris’te buluşturdu. Sürdürülebilir kalkınmadan toplumsal adalete, teknolojinin etik boyutundan liderliğin yeni tanımına uzanan çok katmanlı başlıklar, zirvenin bu yılki tartışma eksenini oluşturdu.
Bu yıl zirvede bir Eczacıbaşılı da vardı: Eczacıbaşı Bilişim Kalite Sistemleri Uzmanı Ezgi Yalçın, Türkiye’yi temsilen Paris’teydi ve açılış oturumunda yapay zekânın gündelik kararlardaki rolünü ele alan konuşmasıyla programda yer aldı. Yalçın, dört gün boyunca süren bu yoğun deneyimi, tartışmaların açtığı yeni perspektifleri ve zirvenin kendisinde bıraktığı düşünsel izleri Yaşam Blog için derledi.
1-4 Kasım 2025 tarihleri arasında Paris’te düzenlenen Young Leaders Union, bu yıl kendi alanlarında aktif olarak çalışan ve toplumsal etki üretmeyi hedefleyen genç liderlerin katılımıyla gerçekleşen son derece dinamik ve çok yönlü bir zirveydi. Genç liderleri bir araya getirerek sürdürülebilir kalkınma hedefleri, adalet, kapsayıcılık ve liderlik üzerine küresel ölçekte diyalog kurmayı amaçlayan Young Leaders Union (YLU), Birleşmiş Milletler ile iş birliği içinde çalışıyor ve İngiltere kökenli uluslararası bir organizasyon olan Edutourism for Unity çatısı altında faaliyet gösteriyor. Paris’te düzenlenen buluşma özellikle teknoloji, adalet ve toplumsal dönüşüm ekseninde yoğunlaştı. Türkiye’yi temsil etmek ve zirvenin ilk oturumunu “Responsible AI in Everyday Decisions (Gündelik Kararlarda Sorumlu Yapay Zekâ)” başlığıyla açmak, benim için hem profesyonel hem de kişisel açıdan çok değerli bir deneyimi beraberinde getirdi.
Paris ile ilk kez tanışan biri olarak, şunu gözlemledim ki, Paris’in tuhaf bir dengesi var: kozmopolit ama dingin, modern ama tarihi, hızlı ama aynı zamanda ağırbaşlı. Vardığınız andan itibaren şehrin insanı düşünmeye, tartışmaya ve üretmeye teşvik eden o kendine has havasını hissedebiliyorsunuz. Bu hissin, zirve boyunca yaşanacak yoğun tartışmaların bir ön habercisi olduğunu sonradan fark ettim.
Zirveye kabul sürecim de bu yolculuğun önemli bir parçasıydı. Young Leaders Union’a kişiler bireysel başvursalar dahi sadece bireysel başvurularda belirtilen bilgiler üzerinden ilerlemiyor. Adaylardan toplumsal fayda üreten, kar amacı gütmeyen kuruluşlar, topluluklar veya uluslararası ağlar tarafından desteklendiklerini göstermeleri bekleniyor. Bu destek kişinin halihazırda aktif olarak katkı sunduğu ekosistemleri ve yürüttüğü çalışmaların sahadaki karşılığını görünür kılmayı amaçlıyor. Yani bu mekanizma referanstan ziyade adayın gerçek dünyada hangi yapıların içinde üretim yaptığına ve bu yapıların adayın çalışmalarını nasıl konumlandırdığına odaklanıyor. Böylece başvurular sadece bireysel niyet beyanı değil somut etki, süreklilik ve topluluk katkısı üzerinden değerlendiriliyor. 2025 bahar aylarında başvurumu yaptığımda, referans ve destek kısmında İngiltere merkezli ve özellikle yazılım temalı hackathonlarıyla bilinen uluslararası teknoloji topluluğu Hackathon Raptors beni destekleyen topluluk oldu. Bu topluluk, yapay zekâ, hızlı prototipleme, uygulama geliştirme ve erken aşama inovasyon süreçlerinde genç geliştiriciler için güçlü bir ekosistem ve network yaratmasıyla tanınıyor. Ben ise bu topluluğun içinde daha farklı bir açıdan yer alıyorum. Teknik geliştirmelerin dışında, sürdürülebilirlik, etik çerçeveler ve risk yönetimi bakış açısını teknoloji dünyasıyla buluşturmayı önemsiyorum. Geliştirilen fikirlerin yalnızca iyi çalışmasını değil; aynı zamanda iyi yönetilmesini, doğru şekilde konumlandırılmasını ve toplumsal fayda gözetilerek hayata geçirilmesini destekleyen bir yaklaşımı temsil ediyorum. Bu çerçevede Hackathon Raptors bünyesindeki çalışmalarım, başvuru sürecimde de doğal bir referans noktası oluşturdu.
Başvuru formunda yalnızca mesleki geçmişimi anlatmakla kalmadım; yapay zeka yönetişimi, veri hakimiyeti, etik teknoloji ve güçlü kurumlar üzerine çalışmanın neden küresel bir mesele olduğunu, bu zirveye katılarak neyi tartışmaya açmak istediğimi de detaylandırmıştım. Amacım hem Türkiye’deki kurum deneyimlerimi paylaşmak hem de uluslararası delegelerle ortak bir düşünme zemini yaratarak inovasyonun adalet, güven ve sürdürülebilirlik boyutlarını birlikte tartışmaktı. Bu yaklaşımım kabul sürecinde güçlü bir etki yaratmış olmalı ki, zirvenin ilk oturumunu açma sorumluluğu bana verildi.
İlk gün akşam yemeğiyle birlikte delegeler arasındaki tanışmalar başladı. Bu kısa sürede bile dünyanın dört bir yanından gelen genç liderlerin tümü farklı hikayelerle, farklı mücadele alanlarıyla ve farklı vizyonlarla gelmişti. Masalar hızla düşünce kümelerine dönüştü: yapay zeka etiği tartışanlar, göç politikalarını karşılaştıranlar, iklim değişikliği üzerine çözüm arayanlar, kadın hakları mücadelesini anlatanlar… Daha ilk akşam, bu zirvenin pasif bir dinleme alanı değil; aktif bir fikir üretme ve birbirini zorlayarak düşünme alanı olduğu çok netti.
Delegelerin çoğu, zirve öncesinde Birleşmiş Milletler Sürdürülebilir Kalkınma Amaçları (SKA) üzerine ayrıntılı bireysel çalışmalar yapmıştı. SKA 5 için toplumsal cinsiyet eşitliği raporları, SKA 13 için iklim verileri, SKA 16 için yönetişim modelleri… Herkes kendi uzmanlık alanına göre hazırladığı dosyalarla gelmişti.
Benim çalışmalarıma temel oluşturan SKA kodları ise SKA 9 (Sanayi, Yenilikçilik ve Altyapı) ile SKA 16 (Barış, Adalet ve Güçlü Kurumlar) oldu. Çünkü yapay zekâ yalnızca yeni teknolojilerin üretilmesini sağlayan bir inovasyon aracı değil; aynı zamanda kurumların, devletlerin ve hatta toplumların nasıl karar verdiğini dönüştüren bir yönetişim gücü. Bence SDG 9 inovasyonun “motoru”ysa, SDG 16 bu motorun toplumları adil bir yola taşıyıp taşımayacağını belirleyen bir pusula niteliğinde. Yapay zekanın gelecekte nasıl bir role sahip olacağını belirleyecek olan da işte bu kesişim; teknolojiyle gelen güç ile bu gücün nasıl yönetileceği arasındaki denge.
Zirvenin ilk sunumu ve ilk etkileşimli tartışması bana aitti. “Responsible AI in Everyday Decisions (Gündelik Kararlarda Sorumlu Yapay Zekâ)” başlıklı konuşmama başladığım anda salondaki yüksek odağı hissedebiliyordum. Yapay zekânın giderek görünmez bir karar katmanına dönüştüğünü, önyargının kodlardan değil kullanılan veriden beslendiğini ve veri hâkimiyetinin ülkeler açısından yeni bir stratejik güç haline geldiğini anlattım.
Uluslararası bir teknoloji şirketinin işe alım sürecinde yapay zekâ destekli bir karar mekanizması kullanması ve bu mekanizmanın algoritmasında ortaya çıkan cinsiyet ayrımcılığı örneğini paylaştığım anda salonda belirgin bir hareketlilik oldu.
Suç işlenmeden önce, verilerle riskleri tahmin etmeye ve önlem almayı desteklemeye odaklanan bir yaklaşım olan öngörüsel polislik (predictive policing) konusuna geçtiğimde ise, salonun sorularla dolmaya hazır bir atmosfere girdiğini açıkça hissediyordum.
Planlanan akışta soru–yanıt bölümü sunumun sonunda yer alıyordu. Ancak oturum daha ilk dakikalarda yön değiştirdi. Bir katılımcı söz alarak kendi ülkesindeki tartışmaları gündeme getirdi; hemen ardından bir diğeri el bile kaldırmadan “Verideki önyargı devlet tarafından nasıl denetlenebilir?” sorusunu yöneltti. Böylece soru–yanıt bölümü kendiliğinden başladı ve oturum bir anda canlı bir tartışma platformuna dönüştü.
Özellikle ABD, Kanada ve İngiltere delegeleri yoğun katkı sundu. ABD’li katılımcılar güvenlik–özgürlük dengesi üzerinden temel sorular sordu. Kanadalılar, şeffaflık ve kamu sorumluluğu tartışmalarına göndermeler yaptı. İngiltere’den gelen hukukçular algoritmik ayrımcılığın hukuki sonuçlarını masaya koydu. Bu üç ülkenin soruları, sunumun teknik yönünü hızla etik, politik ve toplumsal bir zemine taşıdı.
Oturumun tansiyonunu en çok yükselten ise finans sektöründen gelen iki delegenin yorumu oldu. “Etik açıdan sorunlu olsa bile bazı modeller operasyonun devamlılığı için kullanılmaya devam edilebilir” ifadesi salonda adeta bir kıvılcım etkisi yarattı. Hukukçular buna anında karşı çıktı. Kadın hakları savunucuları, önyargılı modellerin tarihsel eşitsizlikleri yeniden üretebileceğini vurguladı. Uluslararası politika çalışanları ise bunun devlet–vatandaş arasındaki güven ilişkisini zedeleyebileceğini söyledi. Tartışma alevlendi ama son derece verimli bir şekilde aktı; çünkü amacım da salonda yer alan delegelerin gündelik hayatta verdikleri kararların etik sonuçlarını fark etmelerini sağlayarak bu tartışmayı bilinçli bir şekilde tetiklemekti.
Sunumumdan sonra takvimde yer alan programlar devam etti.
Namibya kökenli İrlanda delegesinin “Justice Has Two Faces” (Adaletin İki Yüzü Vardır) başlıklı sunumu geldi.
Zirvenin belki de en çok alıntılanan cümlesi ise şuydu:
“Justice has two faces, but it’s up to us to decide which one we show the world.” (Adaletin iki yüzü vardır; dünyaya hangisini göstereceğimize karar verecek olan biziz.)
Konuşmasında, yasaların her ne kadar koruma amacıyla yazılmış olsalar da uygulamada kimi zaman tam tersine sonuçlar doğurabildiğini anlattı. Kültürün, dilin, bürokrasinin ve toplumsal normların kadınlar, göçmenler ve dezavantajlı gruplar için görünmez bariyerlere dönüşerek adaleti yalnızca geciktirmekle kalmadığını, kimi zaman tamamen reddettiğini vurguladı. Bu anlatı, benim oturumumda tartıştığımız algoritmik önyargı meselesiyle adeta doğrudan kesişti. Çünkü teknolojinin de tıpkı hukuk gibi iki yüzü olabiliyordu: bir yüzünde yenilik, diğer yüzünde eşitsizliğin yeniden üretimi.
Tanzanya’dan gelen bir katılımcının, bazı bölgelerde kız çocuklarının en temel hijyen ürünlerine dahi erişemediğini anlattığı sunum ise hepimizi derinden sarstı. Bu tür anlatılar, eşitsizliğin dünyanın belirli bölgelerinde ne kadar çarpıcı bir gerçeklik olduğunu; teknolojinin ise bu uçurumu ancak etik liderlikle ve doğru yönetişimle daraltabileceğini bir kez daha gösteriyordu.
Üçüncü gün atölye çalışmalarıyla geçti. Dijital Gerçeklik ve Hesap Verebilirlik oturumunda yanlış bilginin yayılma biçimleri ve platformların sorumluluk alanları tartışıldı. Kamu Politikası oturumunda ise ülkelerin kriz dönemlerinde veriyi nasıl kullandığı ele alındı. Delegeler hâlâ önceki günün yoğun tartışmalarına geri dönüyor; yapay zekâ yönetişimi ve bu sistemlerin doğurduğu riskler neredeyse tüm oturumların görünmez ortak başlığına dönüşüyordu.
Günün en dikkat çekici bölümlerinden biri olan Küresel Liderlik ve Sürdürülebilir Değişim panelinde liderliğin yeni bir tanımı çizildi: Liderlik artık bir pozisyon değil, toplumları dönüştürme sorumluluğuydu.
Dördüncü gün yapılan veda kahvaltısı ise birkaç gün içinde kurulan bağların ne kadar derinleştiğini gösteriyordu. Daha kısa bir süre önce birbirini tanımayan insanlar, artık ortak düşünme alanları yaratmaya, olası projeleri konuşmaya başlamıştı.
Young Leaders Union 2025 bana çok net bir gerçeği bir kez daha gösterdi:
Teknoloji, etik, kültür ve liderlik artık birbirinden ayrı düşünülemez. Hepsi aynı bütünün parçaları ve biri eksik kaldığında sistemin tamamı aksıyor.
Zirve boyunca aklımda benzer sorular dolaştı: Yapay zeka yönetişiminde küresel ölçekte ortak bir zemin mümkün mü? Veri hakimiyeti yeni bir güç dengesi mi yaratıyor? Kadın ve çocuk hakları teknoloji çağında nasıl daha güçlü korunabilir? “Justice has two faces” gerçeği sistem tasarımında nasıl karşılık bulmalı? Ve belki de en önemlisi: Yapay zeka gerçekten toplumsal güveni güçlendiren bir araca dönüşebilir mi?
Paris sokaklarında yürürken, zirvenin yalnızca bir etkinlik olmadığını; geleceğin teknolojisini, liderliğini ve etik değerlerini tartışmak için kurulmuş bir prototip olduğunu ve bizi ortak bir eksende buluşturduğunu düşündüm.
Paris’ten dönerken hissettiğim en baskın duygu şuydu: Bu tartışmalar yalnızca teorik değil, kurumların nasıl yönetildiğini, nasıl denetlendiğini ve nasıl sürdürülebilir kılındığını da doğrudan etkiliyor. Özellikle kalite yönetim sistemleri ve bilgi güvenliği yönetim sistemleri perspektifinden baktığımda yapay zekanın artık bu yapıların dışında ele alınamayacak bir unsur haline geldiği çok net.
Bugün denetimlerde en sık karşılaştığımız sorular süreçlerin tanımlı olup olmadığı, risklerin nasıl ele alındığı, karar mekanizmalarının ne kadar izlenebilir ve denetlenebilir olduğu etrafında şekilleniyor. Yapay zekâ destekli karar alma sistemleri ise bu soruları daha da kritik hale getiriyor. Çünkü artık sadece insan süreçlerini değil, algoritmik kararları da kontrol etmek, izlemek ve gerektiğinde sorgulamak zorundayız. Bu noktada yapay zekâ, kalite ve bilgi güvenliği yönetim sistemleri için yeni bir “risk alanı” olduğu kadar, doğru kurgulandığında güçlü bir “olgunluk göstergesi”ne de dönüşebiliyor.
Zirvedeki oturumları kapatırken kullandığım cümle, dönüş yolunda zihnimde dönüp duran düşünceyle birebir örtüşüyordu:
Yapay zekâ daha hızlı karar verebilir, daha akıllı olabilir; ama bir insan seçiminin değerini asla bilemez. Sorumlu yapay zekâ algoritmaların bittiği yerde başlar; yani vicdanın kodla buluştuğu noktada.
Bugün kurumlarda asıl farkı yaratacak olan da tam olarak bu denge. Liderler empatiyi verimliliğin, adaleti hızın önüne koyabildiğinde; yapay zekâ yalnızca süreçleri optimize eden bir araç olmaktan çıkar, kalite kültürünü, bilgi güvenliğini ve kurumsal güveni güçlendiren bir yapıya dönüşür. Denetimler bize şunu öğretir: Güven, kontrolle değil; doğru tasarlanmış ve doğru yönetilen sistemlerle inşa edilir.