OpenAI, chatgpt’nin sosyal medyadaki yayınlardan sonra neler yapabileceğinin sınırlarını netleştirdi ve çeşitli medya kuruluşlarından gelen raporlar, chatbot’un yasal, tıbbi ve finansal tavsiyelerde bulunmayı bıraktığını iddia etti.
Basit bir ifadeyle, ChatGPT kavramları açıklayabilir ve genel bilgileri özetleyebilir, ancak kişiselleştirilmiş tavsiyeler, tıbbi tedavi önerileri veya yatırım önerileri sağlamayacaktır. Açıklama, yapay zeka şirketlerinin güvenlik, hesap verebilirlik ve kullanıcı özgürlüğünü dengelemek için politikalarını iyileştirmesiyle ortaya çıkıyor.
Tartışma, medya kuruluşu Nexta’nın X’te 29 Ekim’den itibaren chatgpt’nin “tedavi, yasal konular ve para konusunda özel rehberlik sağlamayı bıraktığını” belirten bir gönderi paylaşmasının ardından başladı ve şimdi resmi olarak “eğitim aracı” olarak etiketlendi.”
Khaleej Times Openaı’nin en son 29 Ekim’de revize edilen Kullanım Politikaları sayfasını inceledi. Politikalar arasında “lisanslı bir profesyonelin uygun katılımı olmadan yasal veya tıbbi tavsiye gibi bir lisans gerektiren özel tavsiyelerin sağlanması yer almaktadır.”
Openaı’nin karışıklığa hitap eden politikaları h3>, Openaı’nin sağlık AI başkanı Karan Singhal, X’e şunları yazdı: “Doğru değil. Spekülasyonlara rağmen, bu şartlarımızda yeni bir değişiklik değil. Model davranışı değişmeden kalır. ChatGPT hiçbir zaman profesyonel tavsiyenin yerini tutmadı, ancak insanların yasal ve sağlık bilgilerini anlamalarına yardımcı olmak için harika bir kaynak olmaya devam edecek “dedi.
Openaı’nin politikası ayrıca yasal, tıbbi, finansal, barınma, istihdam ve sigorta konuları gibi “hassas alanlarda insan incelemesi yapılmadan yüksek bahisli kararların otomasyonunu” yasaklar.
Chatgpt’nin resmi yasal veya tıbbi tavsiye vermesi konusunda henüz büyük bir dava açılmamış olsa da uzmanlar, açıklamanın yapay zeka modelleri hassas veya düzenlenmiş alanlara girdiğinde riskleri vurguladığını söylüyor. Chatgpt’nin bir eğitim aracı olduğunu yineleyen OpenAI, bilgi ve tavsiye arasında net bir çizgi çiziyor — gelecekteki yasal yükümlülüğü sınırlamaya yardımcı olabilecek bir ayrım.
Bununla birlikte, şirket zaten telif hakkıyla korunan materyallerinin AI modellerini izinsiz eğitmek için kullanıldığını iddia eden yazarlardan, yayıncılardan ve medya kuruluşlarından çok sayıda davayla karşı karşıya. &Nbsp;Reuters ve The Verge dahil olmak üzere satış noktalarından gelen son raporlar, yapay zeka üzerindeki yasal inceleme derinleştikçe, OpenAI gibi şirketlerin potansiyel davalara maruz kalmayı sınırlamak için politika dilini sıkılaştırmaya başladığını belirtiyor.
Uzmanlar daha güçlü yapay zeka düzenlemesi çağrısı
Uzmanlar uzun süredir açık çerçeveler olmadan yapay zeka platformlarının sağlık, hukuk ve finans gibi alanlarda kötüye kullanılma riski taşıdığını savunuyorlar. Bölge uzmanları Khaleej Times ile daha önce yaptıkları görüşmelerde, tutarlı kuralların bulunmamasının, yapay zeka araçları yüksek bahisli kararları etkilediğinde sorumluluk vermeyi zorlaştırdığını söyledi.Üretken yapay zeka daha yaygın olarak kullanıldıkça, “bilgi” ve “tavsiye” arasındaki çizginin kolayca bulanıklaşabileceğini ve yanlış anlama ve yanlış kullanım için yer açabileceğini eklediler. Openaı’nin en son açıklaması, endüstrinin düzenlenmiş ve hesap verebilir AI kullanımına doğru daha geniş bir kaymaya işaret ettiğini söylediler.
Kullanıcılar için güncelleme, chatgpt’nin profesyonel bir danışman olarak değil, bir bilgi yardımı olarak ele alınması gerektiğini pekiştiriyor. Düzenleyiciler ve işletmeler için, yapay zeka güvenliği, sorumluluk ve yönetişim konusundaki küresel konuşmalar gelişmeye devam ettikçe, endüstrinin daha net sınırlara doğru ilerlemesinde bir başka adımı işaret ediyor.

