Prompt Engineering: Panduan Praktis Merancang Prompt untuk Use Case Nyata
Sumber: AI Generated
Prompt Engineering: Panduan Praktis Merancang Prompt untuk Use Case Nyata
Kita sekarang telah memasuki era ledakan LLMs (Large Language Models) seperti GPT, Claude, Gemini, Grok, LLaMA, dan yang lainnya. Kemampuan kita merancang prompt secara efektif menjadi kunci utama untuk mendapatkan output yang akurat, relevan, dan efisien. Proses ini dikenal sebagai prompt engineering.
Prompt engineering bukan sekadar “menulis perintah,” melainkan keterampilan teknis yang memadukan pemahaman struktur bahasa, konteks aplikasi, dan perilaku model LLM. Artikel ini membahas pendekatan praktis dan strategi prompt engineering berdasarkan empat teknik populer: zero-shot, few-shot, chain-of-thought, dan evaluasi prompt.
Apa Itu Prompt Engineering?
Prompt engineering adalah proses sistematis dalam merancang dan mengoptimalkan input (prompt) yang diberikan ke LLM atau model generative AI untuk mencapai output yang diinginkan. Dengan kata lain, kita “ngobrol secara strategis” dengan AI agar memberikan jawaban sesuai harapan. Disiplin ini mulai berkembang sejak munculnya model GPT-3 dan semakin kompleks seiring perkembangan model-model terbaru seperti Claude 3, Gemini 1.5, dan GPT-4o.
Berikut beberapa teknik populer dalam prompting.
- Zero-shot Prompting
Konsep utama: Memberi instruksi langsung tanpa contoh atau riwayat sebelumnya. Cocok untuk tugas eksplisit yang umum dikenali oleh model.
Contoh prompt:
Tentukan apakah kalimat berikut memiliki sentimen positif, netral, atau negatif:
“Pelayanannya sangat buruk dan saya tidak akan kembali lagi.”
Teknik ini digunakan ketika task yang diinginkan bersifat sederhana, kemudian juga ketika kita ingin proses yang cepat dan hemat token, atau juga bisa dijadikan sebagai baseline terhadap model yang sedang dipakai.
- Few-shot Prompting
Konsep utama: Memberikan input dengan menyediakan terlebih dahulu beberapa contoh dalam prompt agar model belajar pola dari data atau riwayat tersebut.
Contoh:
Ekstrak lokasi dan tanggal dari kalimat berikut.
Contoh:
Teks: “Banjir besar terjadi di Bekasi pada 10 Juli 2025.”
Output: Lokasi: Bekasi, Tanggal: 10 Juli 2025Teks: “Macet besar terjadi di Tangerang pada 29 Juni 2025.”
Output: Lokasi: Tangerang, Tanggal 29 Juni 2025
Sekarang evaluasi teks ini: “Kebakaran terjadi di Bandung pada 12 Juni 2025”
Teknik ini digunakan ketika kita ingin output dengan format yang harus konsisten dan menghindari interpretasi bebas model. Ini dapat digunakan dalam task seperti ekstraksi, klasifikasi, transformasi data.
- Chain-of-Thought (CoT) Prompting
Konsep utama: Kita mengarahkan atau melatih model untuk menjawab secara bertahap agar mampu merekam konteks serta melakukan reasoning. Kamu terus memerikan follow up kepada model AI tersebut sampai mendapatkan hasil yang kamu harapkan.
Contoh:
Joko memiliki 4 apel. Ia membeli 3 kali lipat apel dari yang ia miliki sebelumnya, lalu memberikan 2 kepada temannya. Berapa jumlah apel Joko sekarang? Jelaskan langkah-langkahnya.
Output (ideal):Awalnya Lisa memiliki 4 apel.
Ia membeli 3 kali lipat dari 4, yaitu 12 apel.
Total apel sekarang: 4 + 12 = 16
Ia memberikan 2 apel ke temannya.
Jadi apel tersisa: 16 – 2 = 14
Jawaban: 14 apel.
Teknik ini digunakan ketika kita sedang menjalankan task reasoning yang logis, membutuhkan penjelasan transparan agar kita juga bisa dapat melakukan evaluasi terhadap output dari AI tersebut.
- Evaluasi dan Iterasi Prompt
Setelah membuat prompt, langkah penting berikutnya adalah melakukan evaluasi untuk memastikan bahwa prompt tersebut menghasilkan output yang konsisten, relevan, dan sesuai dengan ekspektasi. Prompt yang baik idealnya dapat dipahami dengan mudah oleh model, tidak ambigu, dan cukup ringkas untuk menghemat token tanpa kehilangan konteks penting.
Evaluasi dapat dilakukan melalui beberapa pendekatan. Pertama, evaluasi manual, di mana kita menilai hasil dari beberapa percobaan prompt untuk melihat konsistensi dan relevansinya. Kedua, teknik prompt ablation, yaitu dengan mengubah atau menghapus bagian tertentu dari prompt untuk melihat dampak langsungnya terhadap output, ini membantu mengidentifikasi bagian penting dari struktur prompt. Ketiga, benchmarking, yaitu menguji prompt secara sistematis pada kumpulan input yang sama untuk mengukur performa dan stabilitas.
Penutup
Prompt engineering telah menjadi kompetensi kunci yang penting dalam era generative AI seperti sekarang ini. Dengan memahami teknik-teknik seperti zero-shot, few-shot, dan chain-of-thought, kita bisa memaksimalkan potensi LLM untuk berbagai skenario, mulai dari customer support, analisis data, hingga riset ilmiah. Seiring berkembangnya model dan platform LLM, kemampuan kita dalam menyusun prompt akan menjadi pembeda antara hasil yang biasa dan luar biasa. Mulailah bereksperimen. Dalam dunia LLM, cara kamu bertanya (prompting) menentukan jawaban yang kamu terima.
Penulis
Muhammad Alfhi Saputra, S.Kom., M.Kom. – FDP Scholar
Referensi:
Brown et al. (2020). Language Models are Few-Shot Learners. https://arxiv.org/abs/2005.14165
OpenAI Cookbook. https://github.com/openai/openai-cookbook
Wei et al. (2022). Chain-of-Thought Prompting Elicits Reasoning in Large Language Models. https://arxiv.org/abs/2201.11903
Comments :