filmov
tv
Cara Menggunakan ChatGPT Agar Hasil Lebih Akurat
ะะพะบะฐะทะฐัั ะพะฟะธัะฐะฝะธะต
Cara agar hasil Chat GPT 99% Akurat & Up To Date (tahun 2023).
.
Di contoh experiment ini, saya mengajukan pertanyaan:
- ๐๐ข๐๐ฉ๐ ๐ฃ๐ฎ๐๐ซ๐ ๐ฉ๐ข๐๐ฅ๐ ๐๐ฎ๐ง๐ข๐ ๐๐๐๐.
- ๐๐ฉ๐๐ฌ๐ข๐๐ข๐ค๐๐ฌ๐ข ๐ข๐ฉ๐ก๐จ๐ง๐ ๐๐ ๐๐๐
- ๐๐๐ ๐๐ข๐ฆ๐๐ง๐ ๐ฌ๐ญ๐๐ญ๐ฎ๐ฌ ๐ค๐๐ฌ๐ฎ๐ฌ ๐๐๐๐๐ ๐ฌ๐๐๐ญ ๐ข๐ง๐ข.
.
.
Dan AI dapat menjawab dengan benar semua pertanyaan2 tersebut.
.
Dimana secara default, "๐๐๐๐๐ ๐๐๐๐ ๐๐๐๐๐๐๐ ๐๐ก๐๐ญ๐๐๐ ๐๐๐ง ๐๐๐ฏ๐ข๐ง๐๐ข-๐๐๐.
.
.
Itu adalah masalah yang sering kita alami saat menggunakan ChatGPT atau GPT 3.5.
.
AI terkadang memberikan kita output yang kurang tepat, salah atau bahkan NGASAL.
.
.
Bayangin kalau kita minta AI untuk mendiagnosa sebuah penyakit berdasarkan gejala spesifik yang dialami penderita. dan gejala tersebut sebuah gejala baru.
.
AI bisa mendiagnosa secara NGASAL. nah ini bisa bahaya... hehe
.
.
Hal ini terjadi karena sebenarnya Models AI bekerja hanya fokus ke Sequence Linguistic dari dataset yang mereka training dalam mengenerate ouputnya.
.
Hasilnya, AI tidak terlalu peduli dengan "Faktor Kebenaran" atau "Validasi Kebenaran" dari output yang mereka hasilkan. Dan ini sudah BIASA.
.
.
Output yang seperti ini disebut dengan istilah "๐ฏ๐๐๐๐๐๐๐๐๐๐๐๐ ๐ฎ๐๐๐๐๐๐๐๐๐ ๐ถ๐๐๐๐๐".
.
Hal ini juga sudah di infokan oleh ChatGPT.
.
.
.
Bayangin.. AI juga bisa HALUUU... ๐คฃ๐
.
.
Untuk mengantisipasi masalah tersebut, Open AI memberikan option "Fine Tuning" agar AI dapat belajar berdasarkan Spesifik Kasus Kita.
.
.
Namun kalau kita membutuhkan informasi yang luas, tidak spesifik ke topik/bidang tertentu, maka biaya untuk Fine Tune akan sangat mahal. karena dataset yang besar.
.
.
Cara lain adalah dengan menggunakan metode "๐ ๐๐ฐ-๐๐ก๐จ๐ญ ๐๐๐๐ซ๐ง๐ข๐ง๐ ".
.
Biasanya pengguna ChatGPT memberikan instruksi khusus di prompt nya. misal:
Jawablah seolah-oleh kamu adalah ____,, atau kamu adalah seorang yang expert di bidang ____, dll.
.
.
Namun kalau kasusnya seperti contoh diagnosa penyakit diatas,, mau prompt gimanapun,, AI akan memberikan kita "Hallucinate Output".
.
.
Untuk itu disini saya menerapkan sebuah metode yang saya sebut "Micro Supervised Learning".
.
Mirip seperti Fine Tuning, namun masih dalam kategorinya "Few-Shot Learning".
.
.
Caranya dengan membuat sebuah information/knowledge dataset yang di convert menjadi Dimensional Vector menggunakan Model dari Open AI juga.
.
Selanjutnya kita di simpan kedalam sebuah Index Informasi.
.
.
Sederhanya, saya melakukan proses Indexing knowledge yang akan digunakan oleh Model GPT 3.5 untuk learning.
.
.
Alurnya,, saat saya bertanya ke AI.
.
Pertanyaan tersebut akan di kirim ke Index..
.
Index tersebut akan memberikan informasi2 yang relevan dengan pertanyaan tersebut.
.
.
Selanjutnya Model GPT/ChatGPT akan menggunakan Informasi tersebut sebagai acuan dalam mengenerate output.
.
.
Sederhana namun hasilnya cukup memuaskan.
.
.
Cekidooot...
#chatgpt #gpt3
.
Di contoh experiment ini, saya mengajukan pertanyaan:
- ๐๐ข๐๐ฉ๐ ๐ฃ๐ฎ๐๐ซ๐ ๐ฉ๐ข๐๐ฅ๐ ๐๐ฎ๐ง๐ข๐ ๐๐๐๐.
- ๐๐ฉ๐๐ฌ๐ข๐๐ข๐ค๐๐ฌ๐ข ๐ข๐ฉ๐ก๐จ๐ง๐ ๐๐ ๐๐๐
- ๐๐๐ ๐๐ข๐ฆ๐๐ง๐ ๐ฌ๐ญ๐๐ญ๐ฎ๐ฌ ๐ค๐๐ฌ๐ฎ๐ฌ ๐๐๐๐๐ ๐ฌ๐๐๐ญ ๐ข๐ง๐ข.
.
.
Dan AI dapat menjawab dengan benar semua pertanyaan2 tersebut.
.
Dimana secara default, "๐๐๐๐๐ ๐๐๐๐ ๐๐๐๐๐๐๐ ๐๐ก๐๐ญ๐๐๐ ๐๐๐ง ๐๐๐ฏ๐ข๐ง๐๐ข-๐๐๐.
.
.
Itu adalah masalah yang sering kita alami saat menggunakan ChatGPT atau GPT 3.5.
.
AI terkadang memberikan kita output yang kurang tepat, salah atau bahkan NGASAL.
.
.
Bayangin kalau kita minta AI untuk mendiagnosa sebuah penyakit berdasarkan gejala spesifik yang dialami penderita. dan gejala tersebut sebuah gejala baru.
.
AI bisa mendiagnosa secara NGASAL. nah ini bisa bahaya... hehe
.
.
Hal ini terjadi karena sebenarnya Models AI bekerja hanya fokus ke Sequence Linguistic dari dataset yang mereka training dalam mengenerate ouputnya.
.
Hasilnya, AI tidak terlalu peduli dengan "Faktor Kebenaran" atau "Validasi Kebenaran" dari output yang mereka hasilkan. Dan ini sudah BIASA.
.
.
Output yang seperti ini disebut dengan istilah "๐ฏ๐๐๐๐๐๐๐๐๐๐๐๐ ๐ฎ๐๐๐๐๐๐๐๐๐ ๐ถ๐๐๐๐๐".
.
Hal ini juga sudah di infokan oleh ChatGPT.
.
.
.
Bayangin.. AI juga bisa HALUUU... ๐คฃ๐
.
.
Untuk mengantisipasi masalah tersebut, Open AI memberikan option "Fine Tuning" agar AI dapat belajar berdasarkan Spesifik Kasus Kita.
.
.
Namun kalau kita membutuhkan informasi yang luas, tidak spesifik ke topik/bidang tertentu, maka biaya untuk Fine Tune akan sangat mahal. karena dataset yang besar.
.
.
Cara lain adalah dengan menggunakan metode "๐ ๐๐ฐ-๐๐ก๐จ๐ญ ๐๐๐๐ซ๐ง๐ข๐ง๐ ".
.
Biasanya pengguna ChatGPT memberikan instruksi khusus di prompt nya. misal:
Jawablah seolah-oleh kamu adalah ____,, atau kamu adalah seorang yang expert di bidang ____, dll.
.
.
Namun kalau kasusnya seperti contoh diagnosa penyakit diatas,, mau prompt gimanapun,, AI akan memberikan kita "Hallucinate Output".
.
.
Untuk itu disini saya menerapkan sebuah metode yang saya sebut "Micro Supervised Learning".
.
Mirip seperti Fine Tuning, namun masih dalam kategorinya "Few-Shot Learning".
.
.
Caranya dengan membuat sebuah information/knowledge dataset yang di convert menjadi Dimensional Vector menggunakan Model dari Open AI juga.
.
Selanjutnya kita di simpan kedalam sebuah Index Informasi.
.
.
Sederhanya, saya melakukan proses Indexing knowledge yang akan digunakan oleh Model GPT 3.5 untuk learning.
.
.
Alurnya,, saat saya bertanya ke AI.
.
Pertanyaan tersebut akan di kirim ke Index..
.
Index tersebut akan memberikan informasi2 yang relevan dengan pertanyaan tersebut.
.
.
Selanjutnya Model GPT/ChatGPT akan menggunakan Informasi tersebut sebagai acuan dalam mengenerate output.
.
.
Sederhana namun hasilnya cukup memuaskan.
.
.
Cekidooot...
#chatgpt #gpt3
ะะพะผะผะตะฝัะฐัะธะธ