Root NationHaberlerBT haberleriSüper zeki bir yapay zekayı yönetmek imkansız olacak

Süper zeki bir yapay zekayı yönetmek imkansız olacak

-

Yapay zekanın insanlığı devirme fikri onlarca yıldır tartışılıyor ve Ocak 2021'de bilim adamları, üst düzey bir bilgisayar süper zekasını kontrol edip edemeyeceğimiz konusunda kararlarını verdiler. Cevap vermek? Neredeyse kesinlikle hayır.

Sorun şu ki, insan anlayışının çok ötesinde bir süper zekayı kontrol etmek, o süper zekanın analiz edebileceğimiz bir simülasyonunu gerektirecektir. Ama bunu anlayamazsak böyle bir simülasyon oluşturmamız mümkün değil.

2021 tarihli bir makalenin yazarları, yapay zekanın (AI) hangi senaryoları ortaya çıkaracağını anlamadıkça "insanlara zarar verme" gibi kuralların kurulamayacağına inanıyor. Bilgisayar sistemi, programcılarımızın yeteneklerini aşan bir seviyede çalışır çalışmaz, artık sınır koyamayacağız.

Yapay Zeka

Araştırmacılar, "Süper zeka, genellikle 'robot etiği' başlığı altında incelenenlerden temelde farklı bir problemdir" diye yazıyor. "Bunun nedeni, süper zekanın çok yönlü olması ve bu nedenle potansiyel olarak, insanlar için potansiyel olarak anlaşılmaz olan hedeflere ulaşmak için çeşitli kaynakları harekete geçirme yeteneğine sahip olmasıdır."

Takımın mantığının bir kısmı şundan geliyor: durma sorunlarıAlan Turing tarafından 1936 yılında önerilmiştir. Buradaki zorluk, bilgisayar programının bir sonuca varıp cevap verip vermeyeceğini (ve duracağını) veya cevabı bulmaya çalışırken sonsuza kadar orada kalıp kalmayacağına karar vermektir.

Turing'in yardımla kanıtladığı gibi akıllı matematik, bunu bazı özel programlar için biliyor olsak da, yazılabilecek her potansiyel program için bunu bilmemize izin verecek bir yol bulmak mantıksal olarak imkansızdır. Bu bizi, süper akıllı bir durumda tüm olası bilgisayar programlarını aynı anda belleğinde depolayabilen AI'ya geri getiriyor.

Ayrıca ilginç:

Örneğin, bir yapay zekanın insanlara zarar vermesini ve dünyayı yok etmesini durdurmak için yazılmış herhangi bir program bir sonuca varabilir (ve durabilir) - her iki şekilde de kesinlikle kesin olmak matematiksel olarak imkansızdır, yani kısıtlanamaz. Almanya'daki Max Planck İnsani Gelişme Enstitüsü'nden bilgisayar bilimcisi Iyad Rahwan Ocak ayında yaptığı açıklamada, "Temelde caydırıcılık algoritmasını kullanılamaz hale getiriyor" dedi.

Araştırmacılar, hiçbir algoritmanın kesinlikle emin olamayacağı dünyayı yok etmeye karşı AI etiğini ve yasakları öğretmeye bir alternatifin, süper zekanın yeteneklerini sınırlamak olduğunu söylüyor. Örneğin, İnternet'in bir bölümünden veya belirli ağlardan kesilebilir.

Yakın tarihli bir çalışmanın yazarları, yapay zekanın uygulama kapsamını sınırlayacağına inanarak bu fikri de reddediyorlar - diyorlar ki, eğer insan yeteneklerinin ötesindeki sorunları çözmek için kullanmayacaksak, neden yaratalım?

Yapay Zeka

Yapay zekayı ilerleteceksek, kontrolümüz dışında bir süper zekanın ne zaman ortaya çıkacağını bile bilemeyebiliriz, o kadar akıl almaz bir şey. Bu, nereye gittiğimiz hakkında ciddi sorular sormaya başlamamız gerektiği anlamına geliyor.

Max Planck İnsani Gelişme Enstitüsü'nden bilgisayar bilimcisi Manuel Kebrian, "Dünyayı yöneten süper akıllı bir makine kulağa bilim kurgu gibi geliyor" diyor. Ancak bazı önemli görevleri bağımsız olarak gerçekleştiren makineler zaten varken, programcılar bunu nasıl öğrendiklerini tam olarak anlamıyor.

Bu nedenle, bir noktada kontrol edilemez ve insanlık için tehlikeli hale gelip gelemeyeceği sorusu ortaya çıkıyor...

Ayrıca okuyun:

DzhereloSciencealert
Üye olmak
hakkında bilgilendir
konuk

0 Yorumlar
Gömülü İncelemeler
Tüm yorumları görüntüle