
Google adalah salah satu nama utama di bidang kecerdasan buatan. Divisi DeepMind perusahaan menghasilkan lusinan perkembangan dan teknologi yang akhirnya menemukan jalan mereka ke produk dan layanan inti Google. Baru -baru ini, Google Deepmind berbagi kertas pengaman yang memperingatkan tentang era AGI. Namun, ada suara yang menentang kesimpulan dokumen.
Openai menciptakan istilah AGI (Kecerdasan Umum Buatan) beberapa waktu yang lalu. Ini mengacu pada sistem kecerdasan buatan yang mampu melakukan hampir semua tugas yang bisa dilakukan manusia .. Ada pandangan yang sangat berbeda di antara para ahli di lapangan tentang kapan AGIS akan tiba. Beberapa optimis, sementara yang lain kurang begitu.
Kertas pengaman mengungkapkan pandangan Google DeepMind tentang AGI
Menurut Google DeepMind, AGIS sejati bisa tiba pada awal tahun 2030. “[We anticipate] Pengembangan AGI yang luar biasa sebelum akhir dekade saat ini, “dokumen tersebut menyatakan.” AGI yang luar biasa adalah sistem yang memiliki kemampuan yang cocok dengan setidaknya persentil ke-99 orang dewasa yang terampil dalam berbagai tugas non-fisik, termasuk tugas metakognitif seperti mempelajari keterampilan baru, keterampilan baru, termasuk tugas metakognitif seperti mempelajari keterampilan baru, termasuk keterampilan baru, termasuk tugas metakognitif seperti mempelajari keterampilan baru seperti metakognitif seperti mempelajari keterampilan baru, termasuk metakognitif seperti belajar baru,. “
Namun, perusahaan tidak menggambarkan realitas potensial ini sepenuhnya positif. Makalah ini memperingatkan bahwa sistem ini dapat menyebabkan “kerusakan parah. ” Ia juga mengatakan bahwa kedatangan teknologi dapat memerlukan “risiko eksistensial” itu “Hancurkan kemanusiaan secara permanen. “
Tim DeepMind menyoroti perbedaan utama antara pendekatan “mitigasi risiko AGI” mereka dan orang lain. Cabang Google mengatakan bahwa antropik menempatkan kurang penekanan pada “Pelatihan, pemantauan, dan keamanan yang kuat. ” Di sisi lain, Openai terlalu optimis tentang “mengotomatiskan”Penelitian Alignment, menurut DeepMind. Penelitian Alignment adalah metode penelitian keselamatan AI.
Superintelligence AI tidak layak, perusahaan percaya
Peneliti DeepMind juga memiliki keraguan tentang kelayakan “Superintelligence” AI, sesuatu yang juga dimaksud Openai. Koran itu mengatakan saat ini tidak ada “Inovasi arsitektur yang signifikan“Itu menunjuk ke arah itu. Namun, mereka memang melihat kemungkinan”Peningkatan AI Rekursif”Dengan teknologi yang ada. Yaitu, AI yang dapat menciptakan AIS yang lebih maju melalui penelitian. Namun, Deepmind memperingatkan bahwa ini akan sangat berbahaya.
“Sifat transformatif AGI memiliki potensi untuk manfaat luar biasa maupun kerusakan yang parah,“Dokumen itu berbunyi.”Akibatnya, untuk membangun AGI secara bertanggung jawab, sangat penting bagi pengembang AI Frontier untuk secara proaktif berencana untuk mengurangi bahaya yang parah. “
Ada ahli yang tidak setuju dengan DeepMind
Ada beberapa suara dalam industri yang tidak setuju dengan kesimpulan dari laporan DeepMind. Heidy Khlaaf, Kepala Ilmuwan AI di Institut AI Nirlaba, mengklaim bahwa masih terlalu dini untuk mengharapkan konsep AGI menjadi “Dievaluasi secara ilmiah secara ilmiah. ” Matthew Guzdial, asisten profesor di University of Alberta, mengatakan bahwa peningkatan AI rekursif yang disebutkan oleh DeepMind juga tidak realistis. “Kami belum pernah melihat bukti untuk itu berhasil”Katanya.
Sandra Wachter – Seorang peneliti yang mempelajari teknologi dan regulasi di Oxford – percaya bahwa kekhawatiran sebenarnya adalah pelatihan AIS di masa depan dengan “output yang tidak akurat. ” Dia tampaknya merujuk pada meningkatnya penggunaan data sintetis dalam industri ini.
“Dengan proliferasi output AI generatif di Internet dan penggantian data otentik secara bertahap, model sekarang belajar dari output mereka sendiri yang penuh dengan ketidakberesan, atau halusinasi“Katanya.”Pada titik ini, chatbots sebagian besar digunakan untuk tujuan pencarian dan pencarian kebenaran. Itu berarti kita terus -menerus beresiko menjadi salah satu kesalahan dan mempercayainya karena mereka disajikan dengan cara yang sangat meyakinkan. “