Mantan Pendiri OpenAI Ilya Sutskever bikin Perusahaan AI Baru, Ingin Lawan ChatCPT?
robbanipress.co.id, Jakarta – Pendiri OpenAI dan mantan kepala ilmuwan Ilya Sutskever mengaku telah mendirikan perusahaan kecerdasan buatan (AI) baru.
Apakah ada tujuan untuk menyerang ChatGPT? Perusahaan AI berfokus pada penciptaan lingkungan AI yang aman karena perusahaan teknologi terbesar berupaya memanfaatkan model produksi AI.
Reuters Kamis (20/6/2024) Perusahaan bernama Safe Superintelligence merupakan perusahaan Amerika yang berkantor di Palo Alto dan Tel Aviv.
Melalui cuitan di X alias Twitter, Sutskever mengungkapkan bahwa ia memulai perusahaan ini demi keselamatan dan keamanan dalam menggunakan AI.
“Satu-satunya fokus kami tidak lepas dari tekanan ekonomi jangka pendek, artinya model bisnis kami adalah manajemen yang mendukung keselamatan, keamanan, dan pertumbuhan, atau tidak teralihkan dari operasional produk,” katanya.
Sutskever bergabung dengan salah satu pendiri Cue dan mantan kepala AI Apple Daniel Gross serta mantan peneliti OpenAI Daniel Levy dan Daniel Gross sebagai salah satu pendiri perusahaan AI Safe Superintelligence.
Sutskever meninggalkan OpenAI yang didukung Microsoft pada Mei 2024 setelah memainkan peran penting dalam memecat dan mempekerjakan kembali CEO Sam Altman pada November 2023.
Setelah Altman kembali sebagai CEO OpenAI, Ilya Sutskever dikeluarkan dari dewan direksi perusahaan.
Sebelumnya, OpenAI menunjuk Paul Nakasone, seorang pejuang cyber terkemuka dan mantan perwira intelijen AS, sebagai dewan direksi.
Perusahaan mengatakan akan melindungi pembuat ChatGPT dari serangan “pihak jahat yang canggih”. Berita AP ini, Sabtu (15/6/2024) lapor.
Pensiunan jenderal Angkatan Darat ini adalah direktur Administrasi Ruang Siber AS dan NSA sebelum mengundurkan diri pada awal tahun 2024.
Dia bergabung dengan dewan OpenAI, yang masih merekrut anggota baru setelah memaksa perubahan kepemimpinan dewan di perusahaan AI San Francisco tahun lalu.
Anggota dewan sebelumnya segera memecat CEO Sam Altman dan menggantikannya ketika dia kembali ke posisi CEO beberapa hari kemudian.
OpenAI mengembalikan Altman ke dewan direksi pada bulan Maret, dengan mengatakan pihaknya memiliki “kepercayaan penuh” pada kepemimpinannya setelah penyelidikan eksternal terhadap kekacauan perusahaan.
Meskipun dewan direksi OpenAI secara teknis adalah organisasi nirlaba, dewan direksi OpenAI mengatur bisnisnya yang berkembang pesat.
Nakasone bergabung dengan Komite Keselamatan dan Keamanan OpenAI yang baru, sebuah kelompok yang akan memberi nasihat kepada seluruh dewan mengenai “keputusan keselamatan dan keamanan yang penting” terkait pekerjaan dan operasinya.
Mantan tim keamanan AI dibubarkan setelah beberapa pemimpin mengundurkan diri.
Beberapa mantan karyawan OpenAI menulis surat terbuka berisi peringatan. Dalam surat tersebut, mantan karyawannya mengatakan OpenAI telah membungkam kritik yang mengkhawatirkan keamanan kecerdasan buatan, yang juga dikenal sebagai kecerdasan buatan.
Surat terbuka tersebut ditandatangani oleh 13 mantan karyawan OpenAI. Surat ini menyatakan bahwa tidak ada pengawasan pemerintah yang efektif terhadap keamanan kecerdasan buatan. Dalam suratnya, mereka juga menyerukan kritik yang lebih terbuka terhadap perusahaan AI.
Minggu (9/6/2024); Mengutip The Verge, inisiatif layanan Open Mail dipicu oleh perusahaan kecerdasan buatan, khususnya OpenAI, yang menilai keamanannya kurang memadai.
Selain OpenAI, Google mendapat kritik karena mempertahankan fitur Ikhtisar AI di Google Penelusuran, dengan banyak yang mengklaim bahwa fitur tersebut memberikan hasil yang aneh.
Selain kedua perusahaan tersebut, Microsoft telah dipecat karena Copilot Designer-nya, yang menghasilkan gambar AI yang menjurus ke arah seksual.
Prinsip kritik yang dituangkan dalam surat tersebut antara lain menghindari pembuatan dan penegakan klausul non-penghinaan; Termasuk memfasilitasi pelaporan oleh pihak anonim yang bisa “memverifikasi” untuk melaporkan permasalahan.
Bukan hanya itu, tapi Surat tersebut, yang ditulis oleh mantan karyawan OpenAI, juga menginginkan karyawan saat ini dan mantan karyawan bebas menyuarakan keprihatinan mereka secara publik tentang AI tanpa takut perusahaan teknologi akan membalas “serangan” terhadap mereka.
Surat tersebut menyatakan bahwa meskipun mereka percaya pada potensi kecerdasan buatan untuk memberikan manfaat bagi masyarakat, mereka juga melihat adanya risiko. meningkatnya kesenjangan; Hal ini dimulai dengan maraknya manipulasi dan misinformasi serta kemungkinan kepunahan manusia.
Surat tersebut juga mengatakan bahwa mereka yang menyampaikan kekhawatiran tentang AI tidak sepenuhnya terlindungi.
Nyatanya, Pelanggaran Upah Departemen Tenaga Kerja AS; Diskriminasi keamanan; Departemen Tenaga Kerja AS menyatakan bahwa pekerja yang melaporkan penipuan dan keterlambatan keberangkatan dilindungi oleh undang-undang perlindungan pelapor. Artinya majikan memecat; penutupan pekerjaan; Artinya jam kerja tidak bisa dikurangi atau pelapor tidak bisa dipecat.
“Beberapa dari kita takut akan adanya bentuk pembalasan, yang secara historis terjadi ketika insiden serupa terjadi di seluruh industri. “Kami bukan pihak pertama yang menghadapi atau mendiskusikan masalah ini,” kata surat itu.
Baru-baru ini, Beberapa peneliti OpenAI berhenti setelah perusahaan tersebut membubarkan tim “Superalignment”. Tim ini fokus untuk mengatasi risiko jangka panjang dari kecerdasan buatan dan kepergian salah satu pendiri OpenAI Ilya Sutskever, yang memprioritaskan keamanan di perusahaan.
Mantan peneliti Jan Leike berkata: “Budaya dan proses keamanan tidak lagi menjadi prioritas untuk produk cemerlang di OpenAI.”