Drone dan kendaraan tak berawak sebagai senjata: mengapa kita perlu takut hacker
Teknologi / / December 19, 2019
Tidak ada yang akan menyangkal bahwa kecerdasan buatan dapat menempatkan hidup kita di tingkat yang baru. AI mampu memecahkan banyak masalah yang berada di luar kekuasaan manusia.
Namun, banyak yang percaya bahwa superintelligence akan ingin menghancurkan kita, sebagai Skynet, atau mulai melakukan percobaan pada orang sebagai GLaDOS dari game Portal. Ironisnya adalah bahwa untuk membuat kecerdasan buatan hanya dapat orang baik atau jahat.
Peneliti dari Yale, Oxford, Cambridge, dan perusahaan membukukan OpenAI laporan pada penyalahgunaan kecerdasan buatan. Ia mengatakan bahwa bahaya nyata berasal dari hacker. Dengan bantuan kode berbahaya, mereka dapat mengganggu operasi sistem otomatis di bawah kontrol AI.
Para peneliti takut bahwa teknologi dibuat dengan niat baik, akan digunakan untuk bahaya. Misalnya, surveilans dapat diterapkan tidak hanya untuk menangkap teroris, tetapi juga untuk memata-matai warga biasa. Para peneliti juga mengkhawatirkan drone komersial, yang memberikan makanan. Mereka mudah untuk mencegat dan menempatkan sesuatu peledak.
Skenario lain adalah penggunaan destruktif dari AI - kendaraan tak berawak. Hal ini cukup untuk mengubah beberapa baris kode, dan mesin akan mulai mengabaikan peraturan keselamatan.
Para ilmuwan percaya bahwa ancaman mungkin digital, fisik dan politik.
- Kecerdasan buatan telah digunakan untuk mempelajari kerentanan berbagai kode-kode program. Di masa depan, hacker bisa membuat bot tersebut, yang akan memotong perlindungan apapun.
- Dengan AI orang dapat mengotomatisasi banyak proses: misalnya, untuk mengendalikan segerombolan drone, atau sekelompok kendaraan.
- Dengan teknologi seperti DeepFake, dapat mempengaruhi kehidupan politik negara, menyebarkan informasi palsu tentang pemimpin dunia melalui bots internet.
Contoh-contoh menakutkan hanya ada sebagai hipotesis. Penulis penelitian tidak menawarkan penolakan lengkap teknologi. Sebaliknya, mereka percaya bahwa pemerintah dan perusahaan besar harus mengurus keamanan, sementara industri kecerdasan buatan bayi.
Politisi harus belajar teknologi dan bekerja sama dengan para ahli di lapangan, untuk secara efektif mengatur pembentukan dan penggunaan kecerdasan buatan.
Pengembang, pada gilirannya, harus menilai bahaya yang ditimbulkan oleh teknologi tinggi, untuk mengantisipasi dan mencegah konsekuensi terburuk dari para pemimpin dunia tersebut. Panggilan laporan untuk pengembang AI: Tim dengan ahli keamanan di daerah lain dan untuk mengetahui apakah Anda dapat menggunakan prinsip-prinsip yang menjamin keamanan teknologi ini untuk perlindungan buatan intelijen.
laporan lengkap menjelaskan masalah secara lebih detail, tetapi kenyataan bahwa AI - kuat alat. Semua pemangku kepentingan perlu belajar teknologi baru dan pastikan itu tidak digunakan untuk tujuan kriminal.