Amazon Web Services sedang melakukan langkah signifikan untuk mendemokratisasi adopsi AI generatif. Dalam konferensi tahunan re:Invent-nya, AWS mengumumkan pembaruan besar pada Amazon Bedrock—platform model dasar terkelolanya—yang memperkenalkan lebih dari 100 model baru yang dapat diakses, optimisasi inferensi canggih, dan kemampuan pemrosesan data yang kuat dirancang untuk membantu perusahaan mempercepat penerapan AI.
Ledakan Model: Akses ke 100+ Model Dasar
Ketersediaan model berkembang secara dramatis. Selain model dasar Amazon Nova milik AWS sendiri, ekosistem kini mencakup kontribusi dari laboratorium AI terkemuka. Model Ray 2 dari Luma AI membawa kemampuan pembuatan video ke lingkungan produksi, memungkinkan pengguna untuk membuat konten video berkualitas tinggi dari teks dan gambar dengan fisika yang realistis dan perilaku karakter yang konsisten. Ini membuka kemungkinan bagi tim pemasaran, arsitek, dan desainer yang ingin memprototipe konsep visual dengan cepat.
Tim yang fokus pada kode kini memiliki akses ke model malibu dan point dari poolside melalui Amazon Bedrock, alat yang dirancang khusus untuk tugas rekayasa perangkat lunak seperti pembuatan kode, pengujian, dan dokumentasi. Model-model ini dapat disesuaikan pada basis kode perusahaan, memungkinkan perusahaan membangun asisten AI yang disesuaikan dengan praktik dan standar pengembangan mereka.
Stability AI’s Stable Diffusion 3.5 Large bergabung dengan platform untuk alur kerja pembuatan gambar. Model ini mendukung berbagai gaya artistik dan mempercepat pembuatan konsep seni untuk industri dari gaming hingga ritel.
Selain penambahan flagship ini, Amazon Bedrock Marketplace kini mengkatalogkan lebih dari 100 model—termasuk opsi khusus untuk keuangan (Writer’s Palmyra-Fin), terjemahan (Upstage’s Solar Pro), dan penelitian biologi (EvolutionaryScale’s ESM3). Pelanggan memilih model yang sesuai dengan kasus penggunaan mereka, mengonfigurasi infrastruktur melalui AWS, dan menerapkan melalui API terpadu dengan tata kelola dan keamanan bawaan.
Inferensi Lebih Pintar: Cache Prompt dan Routing Dinamis
Seiring model berkembang ke produksi, biaya inferensi dan latensi menjadi kendala kritis. Dua kemampuan ini langsung mengatasi hal tersebut.
Cache Prompt memungkinkan konten yang sering digunakan kembali untuk disimpan secara aman, mengurangi beban proses. Hasil awal menunjukkan peningkatan yang berarti: Asisten AI Acrobat dari Adobe mengalami pengurangan waktu respons sebesar 72% saat caching prompt di Amazon Bedrock. Pengurangan biaya bisa mencapai 90% untuk model yang didukung, sementara latensi turun hingga 85%.
Routing Prompt Cerdas menangani kompleksitas permintaan secara dinamis. Sistem menganalisis prompt masuk menggunakan teknik pencocokan canggih dan mengarahkan setiap permintaan ke model terbaik dalam satu keluarga. Pertanyaan sederhana diarahkan ke model yang lebih kecil dan murah; pertanyaan kompleks diarahkan ke model yang lebih besar. Hasilnya: pengurangan biaya hingga 30% sambil mempertahankan kualitas respons. Argo Labs, perusahaan AI suara, menggunakan pendekatan ini untuk menangani pertanyaan pelanggan restoran—mengarahkan pertanyaan ya-tidak yang sederhana ke model ringan sementara menyisihkan komputasi untuk pertanyaan menu dan ketersediaan yang lebih rumit.
Pemanfaatan Data: Query Terstruktur dan Knowledge Graphs
Basis Pengetahuan Amazon Bedrock kini mendukung pengambilan data terstruktur secara langsung. Alih-alih mengubah basis data perusahaan menjadi teks tak terstruktur, pelanggan dapat melakukan query data terstruktur menggunakan bahasa alami, dengan sistem menerjemahkan query ke SQL yang dijalankan terhadap gudang data dan danau data. Octus, platform intelijen kredit, berencana menggunakan ini agar pengguna akhir dapat menjelajahi data kredit terstruktur secara percakapan, mengubah bulan-bulan kerja integrasi menjadi hari konfigurasi.
Kemampuan knowledge graph (GraphRAG) memungkinkan perusahaan memodelkan hubungan dalam data mereka secara otomatis. BMW Group berencana mengimplementasikan ini untuk asisten data internalnya (MAIA), menggunakan basis data graph untuk mempertahankan hubungan kontekstual antar aset data dan terus meningkatkan relevansi respons berdasarkan pola penggunaan nyata.
Pipelin Data Otomatis: Dari Tak Terstruktur ke Terstruktur
Layanan Amazon Bedrock Data Automation yang baru mengubah dokumen, gambar, audio, dan video menjadi format terstruktur—secara otomatis. Bank yang memproses dokumen pinjaman, perusahaan asuransi yang menganalisis klaim, dan tim aset digital yang mengelola repositori konten kini dapat mengekstrak, menormalisasi, dan menyusun data dalam skala besar tanpa usaha manual.
Otomatisasi ini menyertakan skor kepercayaan bawaan dan mendasarkan keluaran pada sumber materi untuk mengurangi risiko halusinasi. Symbeo menggunakannya untuk otomatisasi akun payable—mengekstrak data dari klaim asuransi dan tagihan medis dengan lebih cepat. Tenovos menggunakannya untuk pencarian semantik, melaporkan peningkatan reuse konten sebesar 50%+.
Momentum Adopsi
Basis terpasang mencerminkan keberhasilan strategi ini. Amazon Bedrock kini melayani puluhan ribu pelanggan—bertumbuh 4.7x dari tahun ke tahun. Adobe, BMW Group, Zendesk, Argo Labs, dan lainnya sudah mengadopsi kemampuan baru ini, menunjukkan kepercayaan terhadap kematangan dan arah platform.
Ketersediaan dan Peluncuran
Amazon Bedrock Marketplace tersedia segera. Cache prompt, Routing Prompt Cerdas, peningkatan Knowledge Bases (structured data dan GraphRAG), serta Data Automation dalam pratinjau. Model Luma AI, poolside, dan Stability AI akan segera hadir.
Berita tentang bedrock ini mencerminkan strategi AWS yang lebih luas: mengurangi hambatan bagi perusahaan dalam membangun aplikasi AI dengan menangani infrastruktur, pemilihan model, dan optimisasi biaya secara otomatis. Bagi tim pengembang, ini berarti prototipe lebih cepat, biaya eksperimen lebih rendah, dan transisi dari proof-of-concept ke penerapan produksi menjadi lebih mudah.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
Apa yang Baru di Amazon Bedrock: Lebih dari 100 Model, Inferensi yang Lebih Pintar, dan Integrasi Data Perusahaan
Amazon Web Services sedang melakukan langkah signifikan untuk mendemokratisasi adopsi AI generatif. Dalam konferensi tahunan re:Invent-nya, AWS mengumumkan pembaruan besar pada Amazon Bedrock—platform model dasar terkelolanya—yang memperkenalkan lebih dari 100 model baru yang dapat diakses, optimisasi inferensi canggih, dan kemampuan pemrosesan data yang kuat dirancang untuk membantu perusahaan mempercepat penerapan AI.
Ledakan Model: Akses ke 100+ Model Dasar
Ketersediaan model berkembang secara dramatis. Selain model dasar Amazon Nova milik AWS sendiri, ekosistem kini mencakup kontribusi dari laboratorium AI terkemuka. Model Ray 2 dari Luma AI membawa kemampuan pembuatan video ke lingkungan produksi, memungkinkan pengguna untuk membuat konten video berkualitas tinggi dari teks dan gambar dengan fisika yang realistis dan perilaku karakter yang konsisten. Ini membuka kemungkinan bagi tim pemasaran, arsitek, dan desainer yang ingin memprototipe konsep visual dengan cepat.
Tim yang fokus pada kode kini memiliki akses ke model malibu dan point dari poolside melalui Amazon Bedrock, alat yang dirancang khusus untuk tugas rekayasa perangkat lunak seperti pembuatan kode, pengujian, dan dokumentasi. Model-model ini dapat disesuaikan pada basis kode perusahaan, memungkinkan perusahaan membangun asisten AI yang disesuaikan dengan praktik dan standar pengembangan mereka.
Stability AI’s Stable Diffusion 3.5 Large bergabung dengan platform untuk alur kerja pembuatan gambar. Model ini mendukung berbagai gaya artistik dan mempercepat pembuatan konsep seni untuk industri dari gaming hingga ritel.
Selain penambahan flagship ini, Amazon Bedrock Marketplace kini mengkatalogkan lebih dari 100 model—termasuk opsi khusus untuk keuangan (Writer’s Palmyra-Fin), terjemahan (Upstage’s Solar Pro), dan penelitian biologi (EvolutionaryScale’s ESM3). Pelanggan memilih model yang sesuai dengan kasus penggunaan mereka, mengonfigurasi infrastruktur melalui AWS, dan menerapkan melalui API terpadu dengan tata kelola dan keamanan bawaan.
Inferensi Lebih Pintar: Cache Prompt dan Routing Dinamis
Seiring model berkembang ke produksi, biaya inferensi dan latensi menjadi kendala kritis. Dua kemampuan ini langsung mengatasi hal tersebut.
Cache Prompt memungkinkan konten yang sering digunakan kembali untuk disimpan secara aman, mengurangi beban proses. Hasil awal menunjukkan peningkatan yang berarti: Asisten AI Acrobat dari Adobe mengalami pengurangan waktu respons sebesar 72% saat caching prompt di Amazon Bedrock. Pengurangan biaya bisa mencapai 90% untuk model yang didukung, sementara latensi turun hingga 85%.
Routing Prompt Cerdas menangani kompleksitas permintaan secara dinamis. Sistem menganalisis prompt masuk menggunakan teknik pencocokan canggih dan mengarahkan setiap permintaan ke model terbaik dalam satu keluarga. Pertanyaan sederhana diarahkan ke model yang lebih kecil dan murah; pertanyaan kompleks diarahkan ke model yang lebih besar. Hasilnya: pengurangan biaya hingga 30% sambil mempertahankan kualitas respons. Argo Labs, perusahaan AI suara, menggunakan pendekatan ini untuk menangani pertanyaan pelanggan restoran—mengarahkan pertanyaan ya-tidak yang sederhana ke model ringan sementara menyisihkan komputasi untuk pertanyaan menu dan ketersediaan yang lebih rumit.
Pemanfaatan Data: Query Terstruktur dan Knowledge Graphs
Basis Pengetahuan Amazon Bedrock kini mendukung pengambilan data terstruktur secara langsung. Alih-alih mengubah basis data perusahaan menjadi teks tak terstruktur, pelanggan dapat melakukan query data terstruktur menggunakan bahasa alami, dengan sistem menerjemahkan query ke SQL yang dijalankan terhadap gudang data dan danau data. Octus, platform intelijen kredit, berencana menggunakan ini agar pengguna akhir dapat menjelajahi data kredit terstruktur secara percakapan, mengubah bulan-bulan kerja integrasi menjadi hari konfigurasi.
Kemampuan knowledge graph (GraphRAG) memungkinkan perusahaan memodelkan hubungan dalam data mereka secara otomatis. BMW Group berencana mengimplementasikan ini untuk asisten data internalnya (MAIA), menggunakan basis data graph untuk mempertahankan hubungan kontekstual antar aset data dan terus meningkatkan relevansi respons berdasarkan pola penggunaan nyata.
Pipelin Data Otomatis: Dari Tak Terstruktur ke Terstruktur
Layanan Amazon Bedrock Data Automation yang baru mengubah dokumen, gambar, audio, dan video menjadi format terstruktur—secara otomatis. Bank yang memproses dokumen pinjaman, perusahaan asuransi yang menganalisis klaim, dan tim aset digital yang mengelola repositori konten kini dapat mengekstrak, menormalisasi, dan menyusun data dalam skala besar tanpa usaha manual.
Otomatisasi ini menyertakan skor kepercayaan bawaan dan mendasarkan keluaran pada sumber materi untuk mengurangi risiko halusinasi. Symbeo menggunakannya untuk otomatisasi akun payable—mengekstrak data dari klaim asuransi dan tagihan medis dengan lebih cepat. Tenovos menggunakannya untuk pencarian semantik, melaporkan peningkatan reuse konten sebesar 50%+.
Momentum Adopsi
Basis terpasang mencerminkan keberhasilan strategi ini. Amazon Bedrock kini melayani puluhan ribu pelanggan—bertumbuh 4.7x dari tahun ke tahun. Adobe, BMW Group, Zendesk, Argo Labs, dan lainnya sudah mengadopsi kemampuan baru ini, menunjukkan kepercayaan terhadap kematangan dan arah platform.
Ketersediaan dan Peluncuran
Amazon Bedrock Marketplace tersedia segera. Cache prompt, Routing Prompt Cerdas, peningkatan Knowledge Bases (structured data dan GraphRAG), serta Data Automation dalam pratinjau. Model Luma AI, poolside, dan Stability AI akan segera hadir.
Berita tentang bedrock ini mencerminkan strategi AWS yang lebih luas: mengurangi hambatan bagi perusahaan dalam membangun aplikasi AI dengan menangani infrastruktur, pemilihan model, dan optimisasi biaya secara otomatis. Bagi tim pengembang, ini berarti prototipe lebih cepat, biaya eksperimen lebih rendah, dan transisi dari proof-of-concept ke penerapan produksi menjadi lebih mudah.