Süper zeka zaten yakın: Eski bir OpenAI çalışanı yapay zekanın tehlikeleri hakkında konuştu.

Süper zeka zaten yakın: Eski bir OpenAI çalışanı yapay zekanın tehlikeleri hakkında konuştu

Önümüzdeki yıllarda insanlık yapay zekanın kontrolünü kaybedebilir.

Eski OpenAI güvenlik analisti Leopold Aschenbrenner, yapay zekanın geleceğini ve gelişimiyle ilişkili riskleri anlatan bir makale yayınladı. Ona göre 2027 yılına kadar sözde yapay genel zeka (AGI) yaratılabilir. Çok çeşitli problemleri çözebilecek, kendi kendine öğrenebilecek ve hiçbir şekilde insan aklından aşağı olmayacak.

Aschenbrenner, çalışmasında yapay zekanın gelişiminin büyük bir hızla ilerlediğini ve insanlığın bu hızı gerçekleştirecek vaktinin olmadığını vurguluyor. Ona göre, geliştirilmekte olan YGZ prototipleri 2026 yılına kadar üniversite mezunlarından daha akıllı olacak ve on yılın sonunda herhangi bir insanın zekasını aşabilecek. Bu da yapay süper zekanın ortaya çıkmasına yol açacak.

Aschenbrenner'e göre yapay zekanın otomatik araştırma düzeyinde ortaya çıkışı, yapay zekanın neredeyse kontrol edilemeyecek kadar ileri düzeyde gelişmesine yol açacak. Bu da tüm insanlık için ciddi tehditler yaratacaktır. Yazar, ABD ile Çin arasında bir çatışma yaşanabileceğini vurguluyor.

Ayrıca metninde, yeni gerçekliklerde ülkeler arasındaki silahlanma yarışının tam olarak savunma konuları da dahil olmak üzere yaşamın birçok alanını kontrol edecek yapay zekanın geliştirilmesi alanında gerçekleşeceğini belirtiyor. Asıl tehdit, insanlığın bu noktaya, karşılaşacaklarına hazırlıksız yaklaşmasıdır.

Aschenbrenner, büyük finansal yatırımlara rağmen yapay zeka makineleri geliştiren şirketlerin güvenliğe önem vermemesinden şikayetçi. Aslında yaptığı çalışmayla düzenleyicilerin dikkatini bu soruna çekmek istiyor.