Avrupa Konseyi: Yapay zekâ asla editörlerin yerini almamalı
Avrupa Konseyi Medya ve Bilgi Toplumu Hükümetlerarası Yönlendirme Komitesi, 30 Kasım 2023’te kabul edilen ‘Gazetecilikte Yapay Zekâ Sistemlerinin Sorumlu Bir Şekilde Uygulanmasına İlişkin Kılavuz İlkeler’ini yayımladı. Rehber, haber üretiminde yapay zekâ kullanımına ilişkin temel ilkeleri içeriyor. Bu rehber, bir süredir üzerinde çalışılan ‘Yapay Zekâ Çerçeve Sözleşmesi’ne yönelik çalışmaların bir parçası.
MLSA’dan Batıkan Erkoç’un haberine göre, rehberde araştırmadan veri analizine, haber üretiminden okuyucularla iletişime kadar gazetecilikte çeşitli alanlarda yapay zekâ kullanıldığı ancak bunun belirli ilkelere bağlanarak düzenlenmesi gerektiği belirtildi.
Gazeteciliğe özgü yapay zekâ sistemi tanımlanıyor
Rehber ilkelerin başlangıç kısmında, yapay zekâya ilişkin taslak sözleşmeye atıfta bulunuldu ve gazeteciliğe özgü yapay zekâ sistemleri tanımlandı:
“Gazeteciliğe özgü yapay zekâ sistemleri, kamusal ilgi ve öneme sahip güncel olaylar hakkında düzenli olarak bilgi üreten iş veya uygulamayla doğrudan ilgili olan yapay zekâ sistemini ifade eder. Bu, gazetecilik çıktılarını destekleyen araştırma ve inceleme görevlerini de içerebilir. Büyük dil modelleri ve gazetecilik amaçları ve/veya basın kuruluşları için kullanıldığında üretken yapay zekâ da bu kapsama dâhil olabilir, ancak bunlarla sınırlı değildir. Gazetecilik AI sistemleri tek bir teknoloji değil, belirli görevleri otomatikleştirmek için genellikle birbirine bağlı farklı araçları içeren bir sistemdir.”
Herkesin katılması gereken, editoryal bir karar
Rehber ilkelerde, basın kuruluşlarının yapay zekâ sistemlerini haber süreçlerine entegre ederken, yalnızca ticari veya teknolojik amaçları değil, aynı zamanda basın etik ilkelerini göz önünde bulundurması gerektiği vurgulandı. Rehberde yapay zekâ kullanımının “editoryal bir karar” olduğu belirtildi. Bu doğrultuda basın kuruluşlarında bu sistemleri kullanacak bir kişinin belirlenmesinin önemi de ilkelerde yer aldı ve sorumlu kişinin – genellikle – genel yayın yönetmeni olması önerildi.
Yapay zekâyı kullanma kararı alınması sürecinin katılımcı bir şekilde yürütülmesi de rehberdeki önerilerden biri. Getirilen ilkelerde bu kararın tek bir kişiye veya kuruluşa bırakılması yerine, gazetecilerin, editörlerin, geliştiricilerin, pazarlamacıların, hukukçuların, reklamverenlerin ve okuyucuların dahil olduğu katılımcı bir süreçle bu kararların alınması önerisi yer aldı.
Teknik elemanlar gazetecilerin yerine geçmemeli
Yapay zekâ sistemlerini entegre ederken, sistemleri kullanabilen yeni çalışanların alınması veya varolan çalışanlara eğitim verilmesi de rehberin ilkeleri arasında yer aldı. Rehberde basın kuruluşlarında görev yapan eğitimli ve deneyimli gazetecilerin, teknik elemanlarla değiştirilmemesi gerektiği belirtildi.
Rehberin 3. maddesine bu konuda şu tavsiyeler yer aldı:
“Gazetecilik yapay zekâ sistemleri, onları desteklemek için hem teknik hem de organizasyonel altyapı gerektirir. Bu nedenle, kuruluşların yeni personel işe alarak veya mevcut personelin becerilerini artırarak bu altyapıyı oluşturmaları ve sürdürmeleri önerilmektedir. Haber kuruluşları, sadece eğitimli gazetecileri teknik personelle değiştirmekten kaçınmalı ve yapay zekâ rollerinin tanıtımı, diğer personel arasında rutin yapay zekâ yetkinliklerinin geliştirilmesi pahasına olmamalıdır. Ayrıca, personel hakkında karar verirken, çeşitlilik ve kapsayıcılığın dikkatle değerlendirilmesi, azınlıkların, kadınların ve tarihsel olarak ötekileştirilmiş grupların temsiline özel önem verilmesi tavsiye edilmektedir, çünkü bu, yapay zekâ kullanımını ve sonuçta ortaya çıkan çıktıları şekillendirebilir.”
Yapay zekâ asla editoryal denetimin yerini almamalı
Yapay zekânın haber üretimine dâhil olduğu tüm süreçlerde yanlış veya taraflı çıktılardan kaçınmak için mutlaka editoryal denetim mekanizmasının tüm süreçlerde işletilmesi gerektiği belirtildi. Rehberde yapay zekânın, editoryal gözetim ve kontrol sistemlerinin yerini “asla alamayacağı” ifade edildi. Bu konuda da yine rehberin 3. maddesinde aşağıdaki öneriler getirildi:
“Gazetecilik yapay zekâ sistemleri, mevcut iş akışları içinde yüksek oranda otomatikleştirilebilir görevleri tamamlamak için kullanılabilir ve diğer faaliyetler için zaman ve kaynak tasarrufu sağlar. Bununla birlikte, bu görevler için bile ve özellikle otomasyon ve üretken yapay zekâ kullanımı durumunda, yanlış veya önyargılı süreçlerden ve çıktılardan kaçınmak için editoryal gözetim gereklidir. Örneğin, iyi yazılmış, makul görünen otomatik metin çıktılarının yanıltıcı, eksik veya gerçeklere aykırı iddialar açısından uygun şekilde kontrol edilmesi gerekecektir ve bunların belirlenmesi uzman bilgisi ve editoryal gözetim gerektirir. Gözetim, çıktıları kontrol etmenin ötesine geçmeli ve bu çıktıları üreten süreçleri de kapsamalıdır. Editoryal gözetim, çıktıların son derece hassas olduğu (örneğin, bireyler için somut sonuçları olanlar) veya son derece önemli olduğu (örneğin, seçim sonuçları gibi toplumu etkileyebilecek olanlar) veya çıktıların üretken yapay zekâ yardımıyla üretildiği görevler için özellikle önemlidir. Mesleki değerlerin kural haline getirilmesi hiçbir durumda editoryal gözetim ve kontrolün yerini alamaz.” |
Basın kuruluşları, yapay zekâ kullandığını açıklamalı
Video veya ses kaydı yapmadan önce bunu haberin öznelerine açıklama ve izin alma zorunluluğu getiren çeşitli basın etik ilke rehberlerine benzer şekilde, bu rehberde de basın kuruluşları yapay zakâ kullanımı konusunda haber özneleri ve okurlara karşı sorumlu kılındı. Yapay zekâ uygulamaları kullanan basın kuruluşlarının, bunu hem haberlerinin öznelerine hem de okurlarına açıklamaları gerektiği belirtildi.
Rehber ilkelere göre; basın kuruluşlarının kullandıkları yapay zekâ sistemlerini, bunları hangi amaçlarla kullanıldıklarını ve bununla ilgili hangi organizasyonel önlemleri aldıklarını açıklamaları gerekiyor.
Benimsenecek yapay sistemler için belirli şartlar öngörüldü
Yapay zekâ sistemlerini dışarıdan edinecek basın kuruluşlarının, bunları belirli koşulları barındıran sözleşmeler aracılığıyla edinmesi de önerildi. Bu sözleşmelerde yer alması gereken koşullar da rehberde sıralandı.
Yapay zekâ sistemlerinin özellikle veri erişilebilirliği, veri adaleti ve veri kalitesi gibi konularda düzenli olarak denetlenmesi gerektiği vurgulandı. Veri gizliliği ve veri koruma kurallarının uygulanması da altı çizilen diğer önemli ilkelerden biri oldu. İlkelerde yapay zekâ sistemlerinde, ayrımcılığın önlenmesi için gerekli tedbirlerin alınması gerekliliğine de dikkat çekildi.
Konsey, üye devletleri bağlayıcı sözleşme hazırlıyor
Avrupa Konseyi son zamanlarda, yapay zekânın kullanımıyla ilgili bir çerçeve anlaşma üzerinde çalışmaya devam ediyor. Yapay zekânın insan haklarına etkisini içeren çeşitli alanlarda farklı rehberler üzerinde çalışan Konsey’in hazırladığı sözleşmenin ikinci taslağı, 18 Aralık’ta yayınlandı. Kabul edilirse, yapay zekânın özellikle insan haklarını etkileyen alanlarda kullanılmasıyla ilgili tüm üye devletleri bağlayıcı bir sözleşme benimsenmiş olacak.