OpenAI, Yapay Zeka Ahlakı Araştırmaları İçin Duke Üniversitesi’ne Fon Sağlıyor

OpenAI, yapay zekâ sistemlerinin ahlaki değerlerle uyumlu çalışmasını araştıran bir projeye destek vererek bu alandaki çalışmalarını derinleştiriyor. TechCrunch tarafından ortaya çıkarılan bir IRS dosyasına göre, OpenAI’nin kâr amacı gütmeyen kanadı, Duke Üniversitesi’nden araştırmacılara “Yapay Zeka Ahlakı Araştırması” başlıklı bir proje için hibe verdi. Bu çalışma, üç yıl boyunca toplamda 1 milyon dolar fon sağlayarak yapay zekayı ahlaki olarak daha bilinçli hale getirmenin yollarını incelemeyi hedefliyor.

Projenin Amacı Nedir?

Bu proje, pratik etik uzmanı Prof. Walter Sinnott-Armstrong ve yapay zekâ ile ahlaki karar mekanizmaları üzerine çalışan Jana Schaich Borg tarafından yürütülüyor. Sinnott-Armstrong, uygulamalı etik, ahlak psikolojisi ve nörobilim alanlarındaki çalışmalarıyla tanınıyor. Ekip, geçmişte organ nakli gibi kritik kararlar için algoritmalar geliştirerek adalet ve kamu perspektiflerini dengeleme üzerine yoğunlaştı.

Projenin temel hedefi, tıp, hukuk ve iş dünyası gibi alanlarda insan ahlaki yargılarını tahmin edebilen algoritmalar oluşturmak. Ancak, tarihsel deneyimler bunun oldukça karmaşık bir görev olduğunu gösteriyor. Örneğin, Allen Institute for AI tarafından geliştirilen Ask Delphi adlı sistem, basit etik sorulara yanıt verebiliyordu; ancak sorular farklı şekillerde sorulduğunda ahlaki açıdan sorunlu cevaplar üretebiliyordu.

Yapay zekanın bu alandaki kısıtlamaları, genellikle eğitildiği verilerden kaynaklanıyor. Makine öğrenimi modelleri, eğitim verilerindeki kültürel önyargıları yansıtabiliyor. Bu durum, ahlaki bilince sahip bir yapay zeka oluşturmanın önünde önemli bir engel oluşturuyor. Ayrıca, farklı toplumların ahlaki değerlerinin çeşitlilik göstermesi, yapay zekanın evrensel bir ahlaki çerçeve geliştirmesini zorlaştırıyor.

Yapay zekanın ahlaki kararlar verebilme yeteneği, tıp, hukuk ve teknoloji gibi birçok alanda insanlara olan güveni artırabilir. Ancak, bu yeteneğin geliştirilmesi, yalnızca teknolojik değil, aynı zamanda felsefi ve etik bir yaklaşım gerektiriyor.

Projenin sonuçları, 2025 yılında bu fonun sona ermesiyle netleşecek. Eğer başarılı olunursa, bu çalışma yapay zekanın ahlaki değerlerle uyumlu bir şekilde geliştirilmesinde devrim niteliğinde bir adım olabilir.

Exit mobile version