Profesor Jiada membongkar AI generatif: Apakah Vibe Coding tidak sehebat itu? Apa cara terbaik untuk menulis kode dengan AI?

CryptoCity

Di tengah perkembangan pesat AI generatif saat ini, banyak orang merasa bingung apakah harus terus belajar menulis kode, dan Profesor DaJia dalam acara GQ Magazine menganalisis prinsip dasar LLM di balik ChatGPT, serta menunjukkan keterbatasan Vibe Coding.

Profesor DaJia membongkar AI generatif dan mengajarkan cara memahami Vibe Coding dengan benar

Baru-baru ini, GQ Taiwan membagikan sebuah video di saluran YouTube mereka, mengundang secara khusus Profesor Sarah Chasins dari University of California, Berkeley, untuk menjawab berbagai pertanyaan dari netizen tentang pemrograman dan AI.

Di tengah perkembangan pesat AI generatif, banyak orang merasa bingung apakah harus terus belajar menulis kode, Profesor Chasins dalam video tersebut tidak hanya menjelaskan prinsip teknisnya, tetapi juga memberikan pengamatan praktis terhadap tren “Vibe Coding” yang sedang muncul.

Profesor membongkar prinsip teknologi LLM di balik ChatGPT

Profesor Sarah Chasins pertama-tama menjelaskan dengan cara yang mudah dipahami oleh masyarakat umum, bagaimana mekanisme kerja ChatGPT.

ChatGPT dibangun di atas model bahasa besar (LLM), yang intinya sangat sederhana, yaitu sebuah program yang bertanggung jawab untuk menggabungkan kata-kata yang tampaknya cocok satu sama lain.

Pengembang LLM pertama-tama mengumpulkan semua dokumen dan halaman web yang ditulis manusia di internet, data ini mewakili kombinasi kata yang masuk akal menurut persepsi manusia.

Selanjutnya, program akan menjalani pelatihan “permainan pengisian kosong” secara besar-besaran. Sebagai contoh, sistem akan melihat kalimat seperti “Anjing memiliki empat [kosong]” dan jawaban yang sesuai dengan persepsi manusia adalah “Anjing memiliki empat kaki”, tetapi jika program menebak salah, pengembang akan memperbaikinya sampai jawaban benar.

Setelah menjalani pelatihan selama waktu yang setara dengan 300 hingga 400 tahun pemrosesan komputer, program akhirnya akan menghasilkan sebuah “kertas curang” yang sangat besar, yang biasa disebut sebagai “parameter” di dunia teknologi.

Selanjutnya, cukup menyediakan sebuah dokumen dalam format percakapan, program yang pandai mengisi kekosongan ini dapat diubah menjadi chatbot, secara otomatis melengkapi sisa jawaban dari pertanyaan manusia berdasarkan logika.

Sumber gambar: Gambar yang dihasilkan AI oleh Nanobanana, hanya untuk referensi, mohon maaf jika ada bagian karakter Cina yang buram.

Di era AI, cara terbaik belajar menulis kode

Menghadapi kemampuan luar biasa dari alat AI, banyak orang mempertanyakan kebutuhan belajar menulis kode. Menanggapi hal ini, profesor berpendapat bahwa, keterampilan inti dalam pendidikan pemrograman adalah “memecahkan masalah”, yaitu memecah sebuah masalah besar yang kabur menjadi bagian-bagian kecil, sampai setiap bagian dapat diselesaikan dengan beberapa baris kode.

Tanpa latihan ini, pengguna akan sulit memanfaatkan alat AI untuk menghasilkan kode yang benar-benar berfungsi dan kompleks. Selain itu, data pelatihan LLM sebagian besar berupa deskripsi bahasa yang bergaya insinyur, bukan bahasa sehari-hari yang digunakan oleh non-profesional, sehingga sering tidak cocok dengan data pelatihan dan menyebabkan AI kesulitan menghasilkan kode yang berguna.

Untuk memaksimalkan manfaat AI dalam membantu menulis kode, Profesor Chasins menyarankan mengikuti tiga langkah berikut:

  1. Memperkecil masalah: Memecah masalah menjadi sekitar 5 baris kode.
  2. Menggunakan pseudo code: Ini adalah cara mendeskripsikan logika menggunakan sintaks yang mungkin menggabungkan berbagai bahasa pemrograman dan kata kunci, meskipun mirip bahasa alami, bukan bahasa yang kita gunakan sehari-hari, dengan tujuan agar komputer memahami logika eksekusi secara lebih akurat.
  3. Membuat rencana verifikasi: Melalui pengujian massal atau review profesional untuk memastikan keakuratan output AI.

Sumber gambar: Gambar yang dihasilkan AI oleh Nanobanana, hanya untuk referensi, mohon maaf jika ada bagian karakter Cina yang buram.

Vibe Coding Tidak Segitu Hebat?

Terkait tren baru menggunakan LLM langsung untuk menghasilkan kode, bukan mengetik kode secara manual, Profesor Sarah Chasins bersikap skeptis.

Dia menganalisis bahwa alat semacam ini cukup baik dalam menangani konten rutin yang sudah ditulis manusia berkali-kali, tetapi jika ingin mencoba hal inovatif, mode ini biasanya tidak berhasil.

Profesor juga mengutip data penelitian terkait yang menunjukkan bahwa, meskipun pengguna LLM merasa efisiensinya meningkat 20%, kenyataannya kecepatan pengembangan justru 20% lebih lambat dibandingkan yang tidak menggunakan alat tersebut.

Ini menunjukkan bahwa ketergantungan berlebihan pada alat bisa menimbulkan ilusi peningkatan efisiensi. Ketika menghadapi kebutuhan program yang belum pernah dilihat sebelumnya, jika tidak memiliki kemampuan dasar memecah logika dan pengetahuan tentang prinsip fisika, AI tidak akan mampu memperbaiki kesalahan yang terjadi, sehingga hasil akhirnya justru lebih memakan waktu.

Sebagai analogi sederhana, LLM seperti mobil otomatis canggih yang bisa membantu mengatasi jalur umum, tetapi jika Anda tidak tahu cara memecah trek, tidak memahami prinsip fisika kendaraan, seperti logika pemrograman, ketika menghadapi tikungan berbahaya yang belum pernah dilihat, seperti kebutuhan program inovatif, otomatisasi ini mudah salah, dan Anda juga akan kesulitan memperbaikinya karena kurangnya dasar.

Baca lebih lanjut:
AI memungkinkan munculnya perusahaan satu orang! “Vibe Coding” mengubah paradigma, tim kecil pun bisa meraih pendapatan miliaran

Lihat Asli
Penafian: Informasi di halaman ini dapat berasal dari pihak ketiga dan tidak mewakili pandangan atau opini Gate. Konten yang ditampilkan hanya untuk tujuan referensi dan bukan merupakan nasihat keuangan, investasi, atau hukum. Gate tidak menjamin keakuratan maupun kelengkapan informasi dan tidak bertanggung jawab atas kerugian apa pun yang timbul akibat penggunaan informasi ini. Investasi aset virtual memiliki risiko tinggi dan rentan terhadap volatilitas harga yang signifikan. Anda dapat kehilangan seluruh modal yang diinvestasikan. Harap pahami sepenuhnya risiko yang terkait dan buat keputusan secara bijak berdasarkan kondisi keuangan serta toleransi risiko Anda sendiri. Untuk detail lebih lanjut, silakan merujuk ke Penafian.

Artikel Terkait

Sinyal Tren Dogecoin: Apakah $3 Target Kembali Berperan?

Dogecoin kembali menguji dukungan saluran jangka panjang saat RSI stabil, meningkatkan kemungkinan reli baru jika rotasi altcoin kembali. Dogecoin mungkin mendekati level dukungan jangka panjang yang penting setelah kembali ke struktur yang mendahului reli sebelumnya. Pergerakan harga terbaru menunjukkan koin meme

LiveBTCNews1jam yang lalu

Dogecoin (DOGE) Menghapus satu nol selama delapan jam, tetapi apakah akan kembali? - U.Today

Tidak pernah meninggalkan pasar bearish Volatilitas kembali

UToday2jam yang lalu

Menilai apakah DOGE tetap di atas $0,088 saat tekanan jual dari paus meningkat

Dogecoin (DOGE) sedang menghadapi tekanan jual yang kuat sejak kehilangan level $0,1. Dalam tren penurunan yang berkepanjangan ini, DOGE telah menembus support di $0,09 dan menyentuh level terendah di $0,088 sebelum pulih sedikit. Pada saat penulisan, DOGE diperdagangkan di level $0,092, naik 2,56% dalam 24 jam terakhir, mencerminkan volatilitas

TapChiBitcoin2jam yang lalu

Tekanan Harga Dogecoin Meningkat Saat Dukungan $0.08 Dekat Pecah

Wawasan Utama: Dogecoin mempertahankan struktur bearish yang kokoh karena puncak yang lebih rendah dan lembah yang lebih rendah secara berturut-turut memperkuat tekanan penurunan yang berkelanjutan di seluruh kerangka waktu yang lebih tinggi. Level $0.08 sejalan dengan nilai area rendah dan permintaan historis, menjadikannya zona penentu untuk pasar jangka pendek

CryptoFrontNews3jam yang lalu

Harga Dogecoin mendekati breakout dari segitiga naik, semangat trader ritel meningkat, akankah kembali ke puncak Februari?

Dogecoin (DOGE) mendekati menembus pola segitiga simetris, dengan kenaikan terbaru mencapai 17%. Pasar bersikap optimistis terhadap kenaikan di masa depan, tetapi partisipasi ETF spot masih rendah, dan investor institusional tetap berhati-hati. Antusiasme trader ritel dan sikap institusional yang berbeda membuat pergerakan masa depan penuh ketidakpastian.

GateNews6jam yang lalu
Komentar
0/400
Tidak ada komentar