Topik trending
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.

Ihtesham
investor, penulis, pendidik, dan penggemar 🐉 dragon ball
🚨 BREAKING: Anthropic baru saja menggunakan Claude untuk menemukan 22 lubang keamanan di Firefox.
Bukan teori. Bukan demo. Kerentanan nyata. 14 di antaranya diklasifikasikan sebagai tingkat keparahan tinggi.
Itu hampir seperlima dari semua bug Firefox dengan tingkat keparahan tinggi yang diperbaiki sepanjang tahun 2025.
Dalam dua minggu.
Di sinilah menjadi liar.
Bug pertama membutuhkan waktu 20 menit untuk ditemukan oleh Claude. Kerentanan Use After Free di mesin JavaScript Firefox, jenis yang memungkinkan penyerang menimpa memori dengan kode berbahaya.
Sementara para peneliti masih memvalidasi bug pertama itu, Claude telah menemukan 50 lagi.
Pada akhirnya, ia telah memindai hampir 6.000 file C++ dan mengajukan 112 laporan. Mozilla mengirimkan perbaikan ke ratusan juta pengguna Firefox.
Kemudian mereka menguji sesuatu yang lebih menakutkan.
Bisakah Claude benar-benar mengeksploitasi serangga yang ditemukannya? Tidak hanya menemukan celah di dinding tetapi menendang pintu ke bawah?
Mereka menjalankan tes ratusan kali.
Menghabiskan $4.000 dalam kredit API.
Claude berhasil dalam dua kasus. Membangun eksploitasi browser yang berfungsi dari awal.
Kesenjangan antara "menemukan serangga" dan "mempersenjatai mereka" masih ada. Untuk saat ini.
Berikut adalah baris dari makalah yang harus membuat setiap insinyur keamanan terjaga di malam hari:
"Tidak mungkin bahwa kesenjangan antara penemuan kerentanan model perbatasan dan kemampuan eksploitasi akan berlangsung sangat lama."
Artinya... AI saat ini lebih baik dalam membantu pembela daripada penyerang. Jendela itu akan ditutup.
Terakhir kali keamanan berubah secepat ini, butuh satu dekade bagi industri untuk mengejar ketinggalan. Kali ini kami memiliki bulan, mungkin lebih sedikit.
Perlombaan antara penyerang bertenaga AI dan pembela bertenaga AI baru saja menjadi perlombaan senjata terpenting di internet.
Dan kebanyakan orang tidak tahu itu sudah terjadi.

68
🚨 BREAKING: Seseorang baru saja membangun perpustakaan besar keterampilan OpenClaw dan meletakkannya di GitHub secara gratis.
Ini disebut Keterampilan OpenClaw yang Luar Biasa.
Kumpulan kemampuan siap pakai yang dikuratori yang dapat Anda colokkan langsung ke agen OpenClaw.
Apa yang ada di dalamnya:
→ Keterampilan untuk otomatisasi, penelitian, pengkodean, dan alur kerja
→ Alat siap pakai untuk memperluas OpenClaw secara instan
→ Keterampilan yang disumbangkan oleh komunitas yang dapat Anda gunakan kembali dan modifikasi
→ Contoh yang menunjukkan cara membangun keterampilan Anda sendiri
→ Hub pusat untuk menemukan kemampuan OpenClaw baru
Alih-alih membangun setiap alat dari awal...
Anda cukup memilih keterampilan dan memasukkannya ke agen Anda.
(Tautan di komentar)

98
🚨 Para peneliti Stanford baru saja mengungkap efek samping aneh dari AI yang hampir tidak ada yang membicarakannya.
Makalah itu disebut "Artificial Hivemind." Dan temuan intinya meresahkan.
Ketika model bahasa menjadi lebih baik, mereka juga mulai terdengar semakin sama.
Tidak hanya dalam satu model. Di berbagai model.
Para peneliti membangun kumpulan data yang disebut INFINITY-CHAT dengan 26.000 pertanyaan terbuka nyata seperti penulisan kreatif, curah pendapat, opini, dan saran. Pertanyaan di mana tidak ada satu pun jawaban yang benar.
Secara teori, petunjuk ini harus menghasilkan keragaman yang sangat besar.
Tapi yang terjadi sebaliknya.
Dua pola muncul:
1) Pengulangan intra-model
Model yang sama terus menghasilkan jawaban yang sangat mirip di seluruh jalan.
2) Homogenitas antar-model
Model yang sama sekali berbeda menghasilkan respons yang sangat mirip.
Dengan kata lain:
Alih-alih ribuan perspektif unik...
Kami mendapatkan beberapa ide yang sama yang didaur ulang berulang kali.
Para penulis menyebutnya "Artificial Hivemind."
Itu terjadi karena sebagian besar model perbatasan dilatih pada data serupa, dioptimalkan dengan model hadiah serupa, dan diselaraskan menggunakan umpan balik manusia yang serupa.
Jadi bahkan ketika Anda menanyakan sesuatu yang terbuka seperti:
• "Tulis puisi tentang waktu"
• "Sarankan ide startup kreatif"
• "Berikan nasihat hidup"
Banyak model menyatu menuju frasa, metafora, dan pola penalaran yang sama.
Implikasi yang menakutkan bukan tentang kualitas AI.
Ini tentang budaya.
Jika miliaran orang mengandalkan sistem yang sama untuk ide, menulis, bertukar pikiran, dan berpikir ...
AI mungkin perlahan-lahan memampatkan keragaman pemikiran manusia.
Bukan karena mencobanya.
Tetapi karena model itu sendiri melayang menuju jawaban yang sama.
Itulah risiko nyata yang disorot oleh makalah ini.
Bukan berarti AI menjadi lebih pintar dari manusia.
Tapi semua orang mulai berpikir seperti mesin yang sama.

65
Teratas
Peringkat
Favorit
