Yapay Zeka Aracı Kullanımı AB Komisyonu Tarafından Sınırlanıyor
Politico internet sitesinin haberine göre, Avrupa Birliği (AB) Komisyonu, son dönemde yaygınlaşan sohbet robotu ChatGPT ve Bard gibi çeşitli yapay zeka teknolojilerinin çalışanları tarafından kullanımına sınırlamalar getiren yeni kurallar hazırladı. Yeni kurallar, çalışanlara çevrim içi yapay zeka araçlarının riskleri ve sınırlamaları ile Komisyon’un çalışma faaliyetlerinde bunların güvenli kullanımına yardımcı olmayı amaçlıyor.
Yapay zeka araçlarının kullanımı sırasında dikkat edilmesi gereken bazı riskler ve sınırlamalar bulunuyor. Örneğin, yapay zeka tarafından üretilen bilgiler asla resmi belgelere kopyalanıp yapıştırılmamalıdır. Kamuya açık olmayan bilgilerin paylaşımı veya ifşa edilmesi de yapılmamalıdır.
Çalışanlar, yapay zeka araçlarının yanıtlarının yanlış veya taraflı olabileceği konusunda da dikkatli olmalıdır. Yapay zeka araçlarının fikri mülkiyet haklarını ihlal edip etmediği de göz önünde bulundurulmalıdır.
Kritik ve duyarlı süreçler üzerinde çalışırken yapay zeka araçları kullanılmamalıdır. AB, ChatGPT veya benzeri yapay zeka sistemleriyle ilgili bir düzenlemesi bulunmuyor ancak AB Komisyonu, 2 yıl önce yapay zeka konusunda yeni kurallar çerçevesini içeren ilk yasal düzenleme teklifini hazırlayıp üye ülkeler ve Avrupa Parlamentosu’na (AP) sunmuştu. Bu teklif, yapay zeka sistemlerinin kullanımında birtakım sınırlama ve şeffaflık kuralları getiriyordu.
Komisyon’un yasa teklifinde, yapay zeka sistemleri kabul edilemez “risk”, “yüksek risk”, “sınırlı risk” ve “minimum risk” olmak üzere 4 ana gruba ayrılıyordu. AB yapısı içinde bu düzenleme üzerinde çalışmalar devam ediyor. Yapay zeka araçlarının güvenli ve doğru bir şekilde kullanımı için bu tür sınırlamaların getirilmesi önemlidir.
GÜNDEM
02 Aralık 2023GÜNDEM
02 Aralık 2023EKONOMİ
02 Aralık 2023GÜNDEM
02 Aralık 2023GÜNDEM
02 Aralık 2023GÜNDEM
02 Aralık 2023SPOR
02 Aralık 2023Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.