
Revolusi Kecerdasan Buatan telah membawa banyak layanan dan alat yang membuat kehidupan sehari -hari Anda lebih mudah di berbagai bidang, apakah itu pekerjaan, pendidikan, atau hiburan. Ini juga mendorong pengembangan industri teknologi dengan melompat dalam waktu singkat. Namun, beberapa, seperti Eric Schmidt, takut skenario terburuk jika AI jatuh ke tangan yang salah.
Puncak Deepseek ke industri AI tidak hanya menyebabkan dampak yang parah pada Wall Street, menabrak saham Nvidia dan nama -nama besar lainnya. Seiring berjalannya waktu, lebih banyak ahli dan pejabat AS memperingatkan tentang potensi risiko platform. Mereka terutama menyebutkan ancaman terhadap privasi data pengguna dan keamanan nasional. Yang mengatakan, kekhawatiran mantan CEO Google melangkah lebih jauh.
Eric Schmidt mengungkapkan ketakutan terbesarnya tentang AI yang digunakan oleh aktor buruk
Eric Schmidt berbagi perspektifnya tentang topik yang sering diabaikan oleh banyak orang. “Ketakutan yang sebenarnya saya miliki bukanlah orang -orang yang kebanyakan orang berbicara tentang AI – saya berbicara tentang risiko ekstrem”Katanya kepada BBC. Kebanyakan orang yang telah menyatakan keprihatinan tentang penggunaan AI telah merujuk risiko menggunakan platform Cina. Namun, Schmidt bahkan merenungkan kasus ekstrem kecerdasan buatan yang memfasilitasi serangan teroris.
Dia menyebutkan bahwa negara -negara seperti “Korea Utara, atau Iran, atau bahkan Rusia”Dapat memanfaatkan teknologi dengan cara terburuk yang mungkin. Schmidt menyebutkan kemungkinan “Serangan biologis yang buruk dari orang jahat.”Dengan ini ia mengacu pada potensi pengembangan senjata biologis yang dibantu oleh kecerdasan buatan. “Saya selalu khawatir tentang skenario 'Osama bin Laden', di mana Anda memiliki beberapa orang yang benar -benar jahat yang mengambil alih beberapa aspek kehidupan modern kita dan menggunakannya untuk membahayakan orang yang tidak bersalah”Tambahnya.
Platform AI masih tidak efektif dalam memblokir petunjuk berbahaya
Platform AI utama telah menetapkan “hambatan” terhadap dorongan berbahaya, termasuk memblokir output yang berpotensi berbahaya. Namun, tes terbaru oleh Anthropic dan Cisco menunjukkan bahwa perisai saat ini sangat tidak efektif. Platform AI terburuk dalam hal ini adalah Deepseek, yang mencetak tingkat keberhasilan serangan (ASR) 100%. Artinya, itu tidak dapat memblokir bahkan diminta terkait dengan kekhawatiran Schmidt: senjata biologis. Lebih mengkhawatirkan, model seperti GPT 1.5 Pro dan Llama 3.1 405b mencetak tingkat ASR yang cukup tinggi juga (masing -masing 86% dan 96%).
Mantan CEO Google mengatakan dia mendukung peraturan tentang perusahaan AI. Namun, ia juga memperingatkan bahwa peraturan yang berlebihan dapat memengaruhi inovasi di segmen tersebut. Jadi, ia mendesak menemukan keseimbangan antara pembangunan dan keamanan. Dia juga mendukung kontrol ekspor pada perangkat keras AI ke negara lain. Mantan Presiden Joe Biden menerapkan langkah itu sebelum meninggalkan kantor untuk mencoba memperlambat kemajuan saingan di bidang AI. Namun, masih mungkin bahwa Donald Trump dapat membalikkan perintah ini untuk mencegah perusahaan AI asing mencari pemasok lain.
Sementara itu, Google baru -baru ini mengubah kursus tentang visinya untuk AI. Perusahaan telah memperbarui kebijakannya yang membuka pintu untuk menawarkan teknologi AI untuk pengembangan senjata dan pengawasan.