DISKON TERBATAS! Masukkan kupon "skillbaru" saat checkout di kelas apa saja

Logo Koala Skodev mengetik

Skodev

Belajar coding dalam bahasa Indonesia

CHATGPT LAGI DOWN? JALANKAN LLM PADA LOCAL MACHINE-MU DENGAN OLLAMA!

Ketika ChatGPT down, tetap produktif dengan menjalankan LLM secara lokal menggunakan Ollama. Pelajari cara instalasi dan keunggulannya di sini!

ChatGPT lagi down? Jalankan LLM pada Local Machine-mu dengan Ollama!

Daftar Isi:

Apa itu Ollama?
Keunggulan Ollama
Cara Menginstall Ollama pada P...
Memilih Model LLM yang Tepat S...
Setup dan Menjalankan Ollama p...
Refrensi:

Large Language Models (LLM) adalah jenis model kecerdasan buatan yang dilatih menggunakan sejumlah besar data teks untuk memprediksi kata-kata berikutnya dalam sebuah kalimat atau konteks, sehingga memungkinkan mesin untuk menghasilkan teks yang koheren dan relevan. LLM digunakan dalam berbagai aplikasi seperti chatbot, pembuatan konten, analisis sentimen, dan banyak lagi.

Salah satu contoh LLM yang terkenal adalah ChatGPT. ChatGPT ini dikembangkan oleh perusahaan OpenAI. ChatGPT dapat digunakan untuk berbagai kebutuhan seperti menjawab pertanyaan receh, membantu membuat konten dari sebuah ide, dan berinteraksi dengan pengguna secara alami layaknya chatting dengan manusia.

Namun, mengandalkan layanan LLM yang memerlukan internet seperti ChatGPT memiliki beberapa kelemahan, terutama jika layanan tersebut mengalami downtime. Misalnya pada hari Selasa (4/6/2024), ChatGPT sempat down dan mengganggu banyak pengguna yang bergantung padanya untuk kebutuhan pekerjaan atau kebutuhan sehari-hari mereka.

Jadi pada artikel kali ini, aku akan memperkenalkan teman-teman pada Ollama, sebuah tools yang memungkinkan kalian mengakses dan menjalankan LLM di PC atau laptop tanpa perlu terhubung ke internet.

Apa itu Ollama?

Ollama adalah sebuah tools open source yang dikembangkan dengan tujuan untuk mempermudah penggunaan Large Language Models (LLM) di local machine seperti PC atau laptop. Tujuan utama Ollama adalah menyediakan solusi praktis bagi pengguna yang ingin mengakses LLM tanpa harus terhubung dengan internet.

Keunggulan Ollama

Berikut beberapa keunggulan Ollama:

  1. Privasi Terjaga: Dengan menjalankan LLM secara lokal, data pengguna tidak perlu dikirim ke server eksternal, sehingga privasi lebih terjaga. Hal ini sangat penting bagi pengguna yang menangani informasi sensitif atau pribadi.
  2. Kinerja Cepat: Akses ke model yang dijalankan secara lokal dapat lebih cepat dibandingkan dengan menggunakan API cloud karena tidak ada latensi jaringan/koneksi internet. Pengguna dapat merasakan respons yang lebih cepat dan konsisten.
  3. Kontrol Penuh: Pengguna memiliki kendali penuh atas konfigurasi dan penggunaan model, sehingga dapat disesuaikan dengan kebutuhan spesifik. Hal ini memungkinkan pengguna untuk mengoptimalkan model sesuai dengan kebutuhan spesifik mereka.

Cara Menginstall Ollama pada PC atau Laptop

Berikut adalah langkah-langkah untuk menginstal Ollama pada PC atau laptop kalian:

  1. Unduh Installer Ollama: Kunjungi situs resmi Ollama dan unduh installer yang sesuai dengan sistem operasi PC atau laptop kalian (Windows, macOS, atau Linux). Screenshot Halaman Download Ollama
  2. Jalankan Installer: Buka file installer yang telah diunduh dan ikuti petunjuk instalasi yang muncul di layar.
  3. Verifikasi Instalasi: Setelah proses instalasi selesai, buka Terminal atau Command Prompt dan ketik ollama --version untuk memastikan Ollama telah terinstal dengan benar. Jika perintah ini menunjukkan versi Ollama, berarti instalasi berhasil. Screenshot Terminal

Memilih Model LLM yang Tepat Sesuai Spesifikasi PC atau Laptop kalian

Memilih model LLM yang tepat sangat penting untuk memastikan penggunaan yang lancar. Kalian bisa melihat-lihat model LLM apa saja yang tersedia pada halaman library. Berikut adalah beberapa pertimbangan untuk memilih model LLM yang tepat sesuai spesifikasi local machine kalian:

  1. Kapasitas Memori (RAM):

    • < 8 GB: Pilih model yang lebih kecil, seperti tinyllama versi 1 Billion parameter atau gemma versi 2 Billion parameter. Model yang lebih kecil memerlukan lebih sedikit memori dan lebih cocok untuk perangkat dengan spesifikasi rendah.
    • 8 GB - 16 GB: Model yang lebih besar seperti llama3 versi 8 Billion parameter atau gemma versi 7 Billion parameter dapat dijalankan dengan lancar. Perangkat dengan RAM dalam kisaran ini mampu menangani model yang lebih powerful.
    • > 16 GB: Dapat menangani model yang jauh lebih besar lagi seperti llama2 versi 13 Billion parameter atau bahkan llama3 versi 70 Billion parameter. Perangkat dengan RAM lebih dari 16 GB ideal untuk menjalankan model yang sangat besar dan kompleks.
  2. Daya Komputasi (CPU/GPU):

    • CPU Sederhana: Pilih model yang tidak terlalu kompleks untuk menghindari latensi tinggi. CPU yang lebih sederhana mungkin tidak bisa menangani model yang sangat besar, jadi pilihlah model yang lebih ringan.
    • GPU Kuat: Jika memiliki GPU, pertimbangkan model yang dioptimalkan untuk GPU untuk kinerja yang lebih baik. GPU dapat mempercepat pemrosesan model dan memberikan kinerja yang lebih baik dibandingkan dengan CPU.
  3. Ruang Penyimpanan:

    • Pastikan ada cukup ruang penyimpanan untuk model yang akan diunduh. Model yang bisa menerima parameter lebih besar memerlukan lebih banyak ruang, jadi pastikan perangkat kalian memiliki ruang penyimpanan yang cukup.

Setup dan Menjalankan Ollama pada PC atau Laptop kalian

Setelah Ollama diinstal, langkah selanjutnya adalah mengunduh model LLM dan menjalankannya. Berikut adalah panduan langkah demi langkah:

  1. Mengunduh Model LLM:

    • Buka Terminal atau Command Prompt.
    • Gunakan perintah ollama run <nama_model> untuk mengunduh model yang diinginkan. Contoh: ollama run gemma (untuk mengunduh versi default) atau ollama run gemma:2b (untuk mengunduh versi spesifik) Screenshot Download Model
    • Pastikan untuk memilih model yang sesuai dengan spesifikasi perangkat kalian agar kinerjanya optimal.
  2. Menjalankan LLM pada Ollama:

    • Setelah model berhasil diunduh, jalankan LLM pada Ollama dengan perintah ollama run <nama_model>. Contoh: ollama run gemma atau ollama run gemma:2b. Terminal akan menampilkan interface seperti di bawah ini: Screenshot Run Model
    • Interaksi dengan model bisa dilakukan melalui Terminal atau Command Prompt. Screenshot Mencoba Pertanyaan
    • Kalian juga bisa mengintegrasikan Ollama dengan berbagai aplikasi atau tools sesuai kebutuhan (dengan bantuan ekstensi atau API), seperti text editor, aplikasi pengolah data, atau tools kolaborasi lainnya. Screenshot Contoh Ekstensi VSCode

Ollama adalah tools yang sangat berguna untuk memanfaatkan LLM secara lokal, menawarkan keunggulan dalam hal privasi, kinerja, dan kontrol penuh bagi pengguna. Dengan mengikuti panduan instalasi, pemilihan model yang tepat, serta setup yang benar, kalian dapat dengan mudah menjalankan LLM di PC atau laptop kalian. Ollama membuka peluang baru dalam pemanfaatan teknologi AI secara lebih personal dan aman.

Refrensi:

Penulis: Wahyu Ivan

/ @ivanwahyu195

Halo, saya Wahyu. Saat ini saya bekerja sebagai Software Engineer di Taksu Tech. Semoga artikel yang saya tulis bermanfaat untuk temen-temen.

Daftar newsletter skodev masukkan emailmu untuk dapat informasi menarik dari dunia koding