Root NationNesneAnalitikAB neden yapay zeka düzenleyicisi olmak istiyor ve bunu nasıl yapmayı planlıyor?

AB neden yapay zeka düzenleyicisi olmak istiyor ve bunu nasıl yapmayı planlıyor?

-

Avrupa Parlamentosu, AI düzenleme kurallarına ilişkin gelecekteki yasanın temeli olacak yasa tasarısını onayladı. Ne olduğunu anlamaya çalışalım AB AI Yasası.

Her şeyden önce, AB AI Yasası, AI ile ilgili sorunları kapsamlı bir şekilde düzenleyen dünyadaki ilk yasa olmalıdır. Şimdiye kadar sadece proje onaylandı, yasanın kendisi değil. Şimdi son halinin kabulü için 27 AB üye ülkesinin parlamentolarına sunulacak. Yani AB, AI algoritmalarının ve makine öğreniminin geliştirilmesi ve uygulanmasında belirli çerçeveler ve kısıtlamalar oluşturmak için bir tür AI düzenleyicisi olmaya çalışıyor.

Ayrıca ilginç: Geleceğin robotları: yapay zeka bir bedene sahip olacak mı?

Avrupa Birliği yapay zekayı düzenlemek istiyor

Avrupa Birliği, AI algoritmalarının kullanımı için pazardaki kaosa son vermeyi hedefliyor ve yeni yapay zeka çeşitlerinin düzenlenmesini üstleniyor. Avrupa Parlamentosu, yeni yapay zeka programlarının uygulanmasına ilişkin kurallar getirmesi ve hatta bunların hayatın belirli alanlarında kullanımını yasaklaması gereken Yapay Zeka Yasası teklifi üzerindeki çalışmaları hızlandırdı.

Yapay zekanın mevcut gelişimi göz önüne alındığında, şu anda bu tür bir düzenlemenin biçimi hakkında tartışmalar var. Özünde, Avrupa Parlamentosu üyeleri genel amaçlı yapay zeka ile temel modeller arasındaki farkı yasaya yazmak istiyor ve yasaların ikincisine daha katı bir şekilde uygulanması bekleniyor. Daha önce önerilen hükümlerin bu şekilde değiştirilmesi, son aylarda AI'nın hızlı gelişmesinden kaynaklanmaktadır. Her iki yapay zeka türü de eğitim verileri ölçeği, uyarlanabilirlik ve öngörülemeyen amaçlar için kullanım olasılığı bakımından birbirinden farklıdır.

AB Yapay Zeka Yasası

Tüm bu parametreler tam olarak temel modellerde, özellikle GPT-3 ve GPT-4 gibi modellerin temelini oluşturan üretken yapay zekada daha yüksektir. Çalışma sürecinde sürekli genişleyen büyük miktarda veriyi işlerler. Bu nedenle, içerik oluşturucuların amaçladığından tamamen farklı bir şekilde kullanılabilecek yeni verileri hızlı bir şekilde öğrenebilirler.

Yeni yönergelere dayanarak, yapay zekanın yol açabileceği potansiyel tehditlere dayalı olarak grupların üç aşamalı bir sınıflandırması geliştirilecek. En yüksek risk dereceleri, hassas sektörlerde makine öğrenimi teknolojilerinin kullanımının sınırlandırılması ve hatta bazı durumlarda tamamen yasaklanması anlamına gelecektir.

Yapay Zeka Yasası'nın yürürlüğe girmesinden sonra, teknolojinin geliştiricisi, piyasaya sürmeden önce, bağımsız uzmanların gözetiminde demokrasiye veya güvenliğe yönelik tehditler için test edilmesi, şeffaflık gerekliliklerinin karşılanması gibi bir dizi koşulu yerine getirmek zorunda kalacak. veya modelin bilgi işlem gücünün ifşa edilmesi. Aynı zamanda, sosyal puanlama sistemleri (Çin'de olduğu gibi) veya biyometrik tanımlama oluşturmak için temel modeller kullanılamaz.

Ayrıca ilginç: 6G ağları nedir ve neden gereklidir?

- Reklam -

AB Yapay Zeka Yasası nedir?

AB AI Yasası, Avrupa Birliği'nin önerilen yapay zeka yasasıdır ve büyük bir düzenleyici kurum tarafından kabul edilen ilk AI yasasıdır. Yasa, AI uygulamasını üç risk kategorisine göre düzenler. İlk olarak, Çin'de kullanılan hükümet sosyal değerlendirmesi gibi kabul edilemez sosyal riskler oluşturan programlar ve sistemler yasaklanacak. İkincisi, belirli yasal gereksinimleri karşılaması gereken, işe başvuranları sıralayan özgeçmiş tarama araçları gibi yüksek riskli programlar vardır. Son olarak, açıkça yasaklanmayan veya yüksek riskli olarak listelenmeyen ve büyük ölçüde düzenlemeye tabi olmayan programlar.

AB Yapay Zeka Yasası

Avrupa Birliği, yapay zekanın insanlara verebileceği zararı sınırlamayı amaçlayan AI Act yani yapay zekanın kullanımına yönelik yasalar ve yönetmelikler üzerinde çalışıyor.

Toplam devlet kontrolüne ve bireysel haklara çok az saygıya dayalı Çin yaklaşımıyla ve en savunmasız vatandaşların haklarını göz ardı eden Amerikan modeliyle çelişen, Birlik için önemli olan ortak etik değerlere dayalı bir yaklaşımdır.

Avrupa Komisyonu, yapay zeka ilkeleri için bir Avrupa düzenleyici ortamı yaratmayı amaçlamaktadır. Yapay Zeka Yasasının amacı, teknoloji pazarını hizmet veya ürün türüne göre değil, yapay zekanın neden olabileceği risk düzeyine göre düzenlemektir.

Ayrıca ilginç: Huysuz Yaşlı Bir Geek'in Günlüğü: Bing ve Google

AI ile ilgili kurallara neden ihtiyacımız var?

Önerilen AI yönetmeliği, Avrupalıların AI'nın sunduğu şeylere güvenebilmelerini sağlar. Çoğu yapay zeka sistemi çok az risk taşır veya hiç risk oluşturmaz ve birçok toplumsal sorunun çözümüne katkıda bulunurken, bazı yapay zeka sistemleri istenmeyen sonuçlardan kaçınmak için dikkate almamız gereken tehditler oluşturur.

Örneğin, yapay zeka sisteminin neden belirli bir karar verdiğini, bir tahminde bulunduğunu veya uygun bir eylemde bulunduğunu öğrenmek çoğu zaman imkansızdır. Bu nedenle, bir kişinin örneğin bir işe alma kararında veya bir sosyal yardım programı başvurusunda haksız yere dezavantajlı duruma düşüp düşmediğini değerlendirmek zor olabilir.

AB Yapay Zeka Yasası

Mevcut mevzuat bir miktar koruma sağlasa da, yapay zeka sistemlerinin yaratabileceği belirli sorunları ele almak için yetersizdir.

Aşağıdaki kurallar önerildi:

  • AI programları tarafından özel olarak oluşturulan riskleri ortadan kaldırın
  • yüksek riskli programların bir listesini önermek
  • yüksek riskli uygulamalar için AI sistemleri için net gereksinimler belirleyin
  • AI kullanıcıları ve yüksek riskli yazılım sağlayıcıları için belirli yükümlülükler tanımlayın
  • Bir yapay zeka sistemi faaliyete geçirilmeden veya piyasaya arz edilmeden önce bir uygunluk değerlendirmesi sunmak
  • böyle bir AI sistemi piyasaya sürüldükten sonra uygulama alanları önermek;
  • Avrupa düzeyinde ve ulusal düzeylerde bir yönetişim yapısı önermek.

Ayrıca ilginç: Yapay zekaya dayalı en iyi araçlar

AI'da dört risk seviyesi

Avrupa Birliği avukatları, AI'da 4 risk seviyesi tanımlayan yasal bir çerçeve tanımladı:

  • kabul edilemez risk
  • Yüksek risk
  • sınırlı risk
  • Minimum veya risksiz

Her birini daha ayrıntılı olarak analiz edelim.

AB Yapay Zeka Yasası

- Reklam -

kabul edilemez risk

Adından da anlaşılacağı gibi, AI algoritmaları geliştirirken ve kullanırken bu risk derecesi kabul edilemez. Yani, hükümetler tarafından yapılan sosyal değerlendirmelerden tehlikeli davranışları teşvik eden ses destekli oyuncaklara kadar insanların güvenliğine, geçim kaynaklarına ve haklarına yönelik açık bir tehdit olarak görülen tüm yapay zeka sistemleri yasaklanacak.

Yüksek risk

Aşağıdaki alanlarda kullanılan AI sistemleri yüksek riskli olarak sınıflandırılmıştır:

  • vatandaşların hayatını ve sağlığını tehlikeye atabilecek kritik altyapı (örneğin ulaşım)
  • eğitime erişimi ve bir kişinin mesleki yolunu belirleyebilecek eğitimsel veya mesleki eğitim (örneğin, sınav sonuçlarının hesaplanması)
  • örneğin cerrahide ürün güvenliği bileşenleri veya yapay zeka uygulaması
  • istihdam, iş gücü yönetimi ve serbest mesleğe erişim (ör. işe alım prosedürleri için CV tarama yazılımı)
  • temel özel ve kamu hizmetleri (örneğin, vatandaşları kredi alma fırsatından mahrum bırakan kredi değerlendirmesi)
  • adalet alanında kişilerin temel haklarını sınırlayabilecek kolluk eylemleri (örneğin, delillerin güvenilirliğinin değerlendirilmesi)
  • göç yönetimi, iltica ve sınır kontrolü (örneğin seyahat belgelerinin doğruluğunun doğrulanması)
  • adaletin idaresi ve demokratik süreçler (örneğin, hukukun belirli bir dizi olguya uygulanması).

Yüksek riskli yapay zeka sistemlerinin piyasaya sunulmadan önce katı gereksinimleri karşılayacağı belirlenmiştir:

  • yeterli risk değerlendirme ve azaltma sistemleri
  • riskleri ve ayrımcı sonuçları en aza indirmek için sistemi besleyen yüksek kaliteli veri setleri
  • sonuçların izlenmesini sağlamak için etkinlik kaydı
  • Yetkili makamların gerekliliklere uygunluğunu değerlendirebilmesi için sistem ve amacı hakkında gerekli tüm bilgileri içeren ayrıntılı belgeler
  • kullanıcı için açık ve yeterli bilgi
  • riskleri en aza indirmek için uygun insan gözetimi önlemleri
  • yüksek düzeyde güvenilirlik, güvenlik ve doğruluk.

Şimdi neredeyse herkesi korkutan en önemli yönlerden biri hakkında. Tüm uzaktan biyometrik tanımlama sistemleri yüksek riskli kabul edilir ve katı gerekliliklere tabidir. Kanun yaptırımı amacıyla halka açık yerlerde uzaktan biyometrik tanımlamanın kullanılması ilke olarak yasaklanmıştır.

Örneğin, kayıp bir çocuğun aranması, belirli ve acil terör tehditlerinin önlenmesi veya bir suçlunun veya ciddi bir suç zanlısının tespit edilmesi, yerinin tespit edilmesi veya kovuşturulması gerektiğinde, kesin olarak tanımlanmış ve düzenlenmiş istisnalar sağlanmaktadır.

Bu tür bir kullanım, adli veya diğer bağımsız bir makamın yetkilendirmesini gerektirir ve zaman, coğrafi kapsam ve aranan veritabanları açısından uygun sınırlamalara sahiptir.

sınırlı risk

Sınırlı risk, belirli şeffaflık yükümlülükleri olan yapay zeka sistemlerini ifade eder. Chatbot'lar gibi yapay zeka sistemlerini kullanırken, kullanıcıların ilerleme veya geri çekilme konusunda bilinçli bir karar verebilmeleri için bir makineyle etkileşime girdiklerini bilmeleri gerekir.

Yani, kimse ChatGPT'yi yasaklamayacak, ancak geliştiricilerin çalışmalarının ayrıntılarını ve gelecek planlarını ifşa etmesi gerektiği anlamına geliyor. Kullanıcılar, sohbet robotlarından alınan bilgilerin güvenilirliğine güvenirlerse kendilerini bekleyen riskleri anlamalıdır.

Minimum veya risksiz

Avrupa Komisyonu, AI'nın minimum riskle ücretsiz kullanımına izin verir. Bu, yapay zeka özellikli video oyunları veya spam filtreleri gibi uygulamaları içerir. Şu anda AB'de kullanımda olan AI sistemlerinin büyük çoğunluğu bu kategoriye giriyor.

AB Yapay Zeka Yasası

Bir yapay zeka sistemi pazara girdiğinde, piyasa gözetiminden yetkililer sorumludur, kullanıcılar insan gözetimi ve izleme sağlar ve tedarikçilerin bir pazarlama sonrası izleme sistemi vardır. Tedarikçiler ve kullanıcılar ayrıca ciddi olayları ve arızaları da bildirecektir.

Ayrıca okuyun: ChatGPT'nin En Harika 7 Kullanımı

Neden ilgilenmelisin?

Yapay zeka programları, çevrimiçi olarak hangi bilgileri gördüğünüzü etkiler, hangi içerikle ilgilendiğinizi tahmin eder, yasaları uygulamak veya reklamları kişiselleştirmek için veri toplar ve analiz eder ve kanser gibi şeyleri teşhis etmek ve tedavi etmek için kullanılır. Başka bir deyişle, AI hayatınızın birçok alanını etkiler.

AB Yapay Zeka Yasası

2018 tarihli AB Genel Veri Koruma Yönetmeliği'ne (GDPR) benzer şekilde, AB Yapay Zeka Yasası, nerede olursanız olun yapay zekanın yaşamınız üzerinde olumsuz yerine olumlu bir etkisinin olup olmayacağını belirleyen küresel standart haline gelebilir. AB'de yapay zeka düzenlemesi zaten belirli bir uluslararası yankı uyandırıyor. Eylül 2021'in sonunda Brezilya Kongresi, yapay zekanın kullanımına ilişkin yasal çerçeve oluşturan bir yasa tasarısını da kabul etti. Hala ülkenin Senatosu tarafından onaylanması gerekiyor.

Geleceğe yönelik mevzuat

Yapay zeka hızla gelişen bir teknoloji olduğu için, kuralların teknolojik değişikliklere uyum sağlamasına izin veren ileriye dönük bir yaklaşım benimsiyor. AI uygulamaları, piyasaya sürüldükten sonra bile güvenilir kalmalıdır. Bu, tedarikçilerden sürekli kalite ve risk yönetimi gerektirir.

AB Yapay Zeka Yasası

Böyle bir yasa, AI algoritmalarının üreticilerini ve tedarikçilerini geliştirmelerinden daha sorumlu olmaya zorlamalıdır. Daha sosyal olmak, sadece gelir artışını ve kontrolsüz deneyleri düşünmek değil.

AB Yapay Zeka Yasası, yapay zekanın ilk düzenlemesidir

Yapay zekaya ilişkin AB yasası, yapay zekaya ilişkin konuları kapsamlı bir şekilde düzenleyen dünyadaki ilk yasa olacak.

Bu, yapay zekayı zarar verme potansiyeline göre düzenlemek için devrim niteliğinde bir çözümdür. Örneğin sosyal puanlama sistemlerinde, gerçek zamanlı biyometrik tanımlamada veya bilinçaltı manipülasyonunda kullanılması yasaklanacaktır. Örneğin tıbbi teşhis veya yargı sisteminde yüksek riskli bir grup program da belirlendi. Sınırlı risk içeren sistemler grubunda sadece şeffaflık yükümlülükleri tesis edilmelidir.

AB Yapay Zeka Yasası

Önerilen yasa tasarısında çeşitli boşluklar ve istisnalar var. Bu eksiklikler, Yasanın AI'nın hayatınızda iyilik için bir güç olarak kalmasını sağlama yeteneğini sınırlar. Şu anda, örneğin, görüntü gecikmeli olarak yakalanmadıkça veya teknoloji kayıp çocukları bulmak için kullanılmadıkça, polis tarafından yüz tanıma işlemi yasaklanmıştır.

Ayrıca kanun esnek değildir. İki yıl sonra öngörülemeyen bir alanda tehlikeli bir AI uygulaması kullanılırsa, yasa bunu "yüksek riskli" olarak işaretlemek için bir mekanizma sağlamaz.

AI eylemi öncelikle şeffaflık, olayları açıklama yeteneği ve bunlardan sorumlu olma yeteneği, yani şu veya bu olaydan kimin veya neyin sorumlu olduğunu belirleme yeteneğidir. AI Yasası ayrıca, Üye Devletlere teknik konularda yardımcı olmak için yeni bir AI Otoritesinin oluşturulması için yasal dayanak olacaktır.

Ayrıca okuyun: CUDA'dan Yapay Zekaya: Başarının Sırları NVIDIA

Teknoloji devleri, yapay zeka konusundaki AB mevzuatını ihlal etmenin bedelini ağır ödeyecek

Önerilen direktif yalnızca AI kullanımından kaynaklanan veya tedarikçi veya kullanıcı gibi bir kişinin hatası nedeniyle AI sisteminin bir sonuç üretemediği zararlar için geçerli olacaktır. Bununla birlikte, AI sistemi yalnızca ilgili aktör tarafından dikkate alınan bilgileri veya tavsiyeleri sağlarken, hasarın bir insan değerlendirmesi ve müteakip eylemler veya ihmallerden kaynaklanması durumunda Direktif hukuki sorumluluk iddiaları için geçerli değildir. İkinci durumda, yapay zeka sisteminin çıktısı insan eylemleri veya eylemsizlikleri ile hasar arasına girmediğinden, insan eylemlerinden veya eylemsizliklerinden kaynaklanan hasarlar izlenebilir.

AB Yapay Zeka Yasası

Yasağın ihlali, belirli teknolojilerin tedarikçileri için mali yaptırımlara neden olacaktır. 30 milyon avroya veya şirketin yıllık küresel gelirinin yüzde 6'sına ulaşabilirler.

Elbette bu tür kararların alınması Avrupa Birliği'ne üye devletlerin alacağı kararlara bağlı olacaktır ancak bunun gerçekten tarihi bir adım olduğunu şimdiden söyleyebiliriz. Yapay zeka teknolojisi, ekonominin gelişmesi için olumlu olarak kullanılabilecek çok büyük bir potansiyele sahip. Aynı zamanda birçok risk vardır. Bu nedenle, mevzuat bunları sınırlamaya çalışır, ancak yasaklamaya çalışmaz.

AB, yapay zekaya ilişkin yeni mevzuatı kabul etmenin yanı sıra, yakında hazır olması beklenen ve benzer ilkeleri izleyen diğer ülkelere sunulabilecek olan teknolojiye ilişkin gönüllü davranış kuralları konusunda ABD ile birlikte çalışmayı da planlıyor.

Yapay Zeka Yasası, Yapay Zeka Ofisi'nin oluşturulması için de temel oluşturmalıdır. Üye Devletlerin ve yetkililerinin yeni düzenlemenin uygulanmasında teknik uzmanlık yoluyla desteklenmesi ve birden fazla ülkeyi etkileyecek sorunlarda çözümlerin koordinasyonunu kolaylaştırması amaçlanmaktadır.

Ayrıca okuyun:

Yuri Svitlyk
Yuri Svitlyk
Karpat Dağları'nın oğlu, tanınmayan matematik dehası, "avukat"Microsoft, pratik fedakar, sol-sağ
- Reklam -
Üye olmak
hakkında bilgilendir
konuk

0 Yorumlar
Gömülü İncelemeler
Tüm yorumları görüntüle