Τρέξτε AI τοπικά: Οδηγός για LM Studio (ChatGPT & DeepSeek)

Σειρά “Ξεκινώντας με την Τεχνητή Νοημοσύνη”

  1. Τι είναι η Τεχνητή Νοημοσύνη και γιατί πρέπει να σας ενδιαφέρει
  2. Τι είναι τα ChatGPT, Gemini, Claude, Grok, Copilot και πώς μπορούν να σας βοηθήσουν
  3. AI Prompts: Πώς να γράφετε σωστά ερωτήσεις στο ChatGPT και τα ChatBots
  4. Πώς να χρησιμοποιήσετε το ChatGPT στην καθημερινή σας ζωή
  5. Χρήση ΤΝ χωρίς τεχνικές γνώσεις — είναι εφικτό;
  6. Πρακτικά παραδείγματα χρήσης ΤΝ για δουλειά και προσωπικές ανάγκες
  7. Συχνά λάθη όταν χρησιμοποιούμε την ΤΝ και πώς να τα αποφύγετε
  8. Πόσο ασφαλές είναι να χρησιμοποιείς ΤΝ και τι να προσέχετε
  9. Τρέξτε AI τοπικά: Οδηγός για LM Studio (ChatGPT & DeepSeek)

Πολλοί πιστεύουν ότι για να τρέξουν ισχυρά μοντέλα Τεχνητής Νοημοσύνης χρειάζονται ακριβές συνδρομές ή μόνιμη σύνδεση στο ίντερνετ. Αυτό πλέον δεν ισχύει. Με το LM Studio, μπορείτε να φέρετε τη δύναμη του ChatGPT και του DeepSeek απευθείας στον υπολογιστή σας, δωρεάν και με ιδιωτικότητα.


Τι είναι το LM Studio;

Το LM Studio είναι μια εφαρμογή desktop (για Windows, Mac και Linux) που επιτρέπει να κατεβάζουμε, να τρέχουμε και να συνομιλούμε με Large Language Models (LLMs)1 offline.

Σκεφτείτε το σαν έναν “Browser για AI”. Αντί να μπαίνουμε στο site της OpenAI για να μιλήσουμε στο ChatGPT, ανοίγουμε το LM Studio, φορτώνουμε ένα μοντέλο που έχουμε κατεβάσει στον σκληρό μας και μιλάμε μαζί του χωρίς να στέλνουμε δεδομένα στο internet.

Οι βασικές του δυνατότητες:

  • User Interface: Ένα όμορφο, φιλικό περιβάλλον που θυμίζει έντονα το ChatGPT.
  • Search & Download: Διαθέτει ενσωματωμένη αναζήτηση μοντέλων που συνδέεται με το Hugging Face. Δε χρειάζεται να ψάχνουμε αρχεία χειροκίνητα, κατεβαίνουν με ένα κλίκ.
  • GPU Offloading: Εκμεταλλεύεται την κάρτα γραφικών (NVIDIA/AMD) για να τρέχει τα μοντέλα.
  • Local Server: Μπορεί να λειτουργήσει ως server (API) που είναι συμβατό με το OpenAI.

Τι μοντέλα μπορεί να τρέξει;

Το LM Studio τρέχει μοντέλα μορφής GGUF2 (μια ειδική μορφή συμπίεσης για να τρέχουν σε απλούς υπολογιστές). Μπορείτε να τρέξετε:

  • DeepSeek R1 & Coder: Εξαιρετικά για προγραμματισμό και λογική (και πολύ ελαφριά).
  • OpenAI GPT-OSS: Ναι, υπάρχει και open source έκδοση από την OpenAI.
  • Llama 3 (Meta): Το πιο δημοφιλές open-source μοντέλο γενικής χρήσης.
  • Mistral & Mixtral: Πολύ δυνατά Ευρωπαϊκά μοντέλα.
  • Google Gemma 2: Η ανοιχτή έκδοση του Gemini.
  • Qwen: Το “θηρίο” από Alibaba που χτυπάει το GPT-4 σε benchmarks.

Note: Θα βρείτε “Uncensored” εκδόσεις μοντέλων που δεν έχουν τους περιορισμούς ασφαλείας των εταιρικών AI.


LM Studio vs Ollama3: Ποιο να διαλέξω;

Και τα δύο εργαλεία κάνουν παρόμοια δουλειά, αλλά απευθύνονται σε διαφορετικό κοινό.

  • Ollama: Είναι εξαιρετικό εργαλείο, αλλά λειτουργεί κυρίως μέσω γραμμής εντολών (terminal). Είναι ιδανικό για developers που θέλουν να ενσωματώσουν AI σε εφαρμογές τους. Για γραφικό περιβάλλον χρειάζεστε τρίτες εφαρμογές όπως το Open WebUI και αυξάνουν την πολυπλοκότητα και τη δυσκολία ιδιαίτερα σε αρχάριους χρήστες.
  • LM Studio: Είναι σχεδιασμένο για τον τελικό χρήστη. Έχει γραφικό περιβάλλον, κουμπιά αναζήτησης και chat.
ΧαρακτηριστικόLM StudioOllama
ΠεριβάλλονΠλήρες GUI (Γραφικό Περιβάλλον). Βλέπεις κουμπιά, ρυθμίσεις, chat.Κυρίως Command Line (CLI). Τρέχει στο τερματικό.
ΕυκολίαPlug & Play. Ιδανικό για αρχάριους και visual τύπους.Ιδανικό για developers που θέλουν να το ενσωματώσουν σε scripts.
ΡυθμίσειςΕύκολη παραμετροποίηση (Context length, Temperature) με sliders.Χρειάζεται Modfiles και εντολές για παραμετροποίηση.
ΑναζήτησηVisual Search μέσα στην εφαρμογή.Πρέπει να ξέρεις το όνομα του μοντέλου ή να ψάξεις στο site τους.

Αν θέλετε απλά να τσατάρετε και να πειραματιστείτε με διαφορετικά μοντέλα εύκολα, βάλτε LM Studio. Αν είστε developer και θέλετε automation, βάλτε Ollama.


Οδηγός Εγκατάστασης

Για να προχωρήσετε στην εγκατάσταση του προγράμματος μπαίνετε στην ιστοσελίδα lmstudio.ai και κατεβάζετε το αρχείο εγκατάστασης.

Επιλέξτε την έκδοση του λειτουργικού σας.

Αποθηκεύστε το τοπικά σε ένα φάκελο

και τρέξτε το αρχείο όταν ολοκληρωθεί το download.

Η εγκατάσταση είναι απλή, next next finish.

Αναζήτηση Μοντέλου

Ανοίξτε το LM Studio και αφού επιλέξτε το level των γνώσεων σας, την πρώτη φορά.

Πηγαίνετε στον φακό (Search) στα αριστερά.

Γράψτε DeepSeek Coder, Llama 3 ή ChatGpt

Θα δείτε πολλά αποτελέσματα. Διαλέξτε αυτά που έχουν τα περισσότερα downloads.

💡 Pro Tip: Αν ψάξετε για “GPT”, θα βρείτε το openai/gpt-oss-20b. Είναι μια ανοιχτή έκδοση από την OpenAI. Δεν είναι το πλήρες GPT-4, αλλά είναι μια ελαφριά εκδοχή του που τρέχει τοπικά στον υπολογιστή !


Τι σημαίνουν τα μεγέθη 2B, 8B, 20B, 70B;

Δίπλα σε κάθε όνομα μοντέλου θα βλέπετε πάντα έναν αριθμό με το γράμμα “B” (π.χ. Llama-3-8B). Αυτό σημαίνει Billions (Δισεκατομμύρια) Parameters.

Σκεφτείτε τις “παραμέτρους” σαν τους νευρώνες ή τις γνώσεις που έχει ο “εγκέφαλος” του μοντέλου.

  • Περισσότερα B = Πιο έξυπνο μοντέλο, αλλά και πιο “βαρύ” για τον υπολογιστή.
  • Λιγότερα B = Πιο γρήγορο, αλλά ίσως κάνει λάθη ή χάνει το νόημα.

Ποιο να διαλέξετε;

  1. 2B – 3B (Ελαφριά):
    • Ιδανικά για: Παλιά Laptop, pc και για απλές δουλειές.
    • Μειονέκτημα: Μπορεί να “χάνουν” λίγο στη λογική ή να μπερδεύονται σε δύσκολες ερωτήσεις. Παραδείγματα: Gemma 2B, Qwen 1.5B
  2. 7B – 9B (Χρυσή Τομή):
    • Ιδανικά για: Τον μέσο χρήστη. Εδώ ανήκουν τα DeepSeek R1 και Llama 3. Προσφέρουν εξαιρετική ευφυΐα (κοντά στο GPT-3.5/4) και τρέχουν άνετα σε υπολογιστές με 8GB-16GB RAM.
  3. 14B – 20B (Επαγγελματίες):
    • Ιδανικά για: Προγραμματισμό (Coding) και σύνθετη επίλυση προβλημάτων. Εδώ ανήκει και το OpenAI GPT-OSS 20B που είδαμε.
    • Χρειάζεστε καλό μηχάνημα (32GB RAM ή κάρτα γραφικών με 12GB+ VRAM) για να μην καθυστερεί ή ακόμα και να κρασάρει.
  4. 70B+ (Γίγαντες):
    • Ιδανικά για: Ερευνητές ή όσους θέλουν την απόλυτη ποιότητα (επιπέδου GPT-4).
    • Προσοχή: Είναι εξαιρετικά αργά και απαιτούν πανάκριβο εξοπλισμό (συνήθως 2 κάρτες γραφικών ή Mac Studio με 64GB+ μνήμη).


Ξεκινήστε τη Συνομιλία (Chat)

Αφού κατέβηκε το μοντέλο, ήρθε η ώρα ! Η διαδικασία είναι λίγο διαφορετική από το web:

Φόρτωση του Μοντέλου (Το “Loading”) Σε αντίθεση με το ChatGPT που είναι πάντα ανοιχτό, εδώ πρέπει να “φορτώσουμε” το μοντέλο στη μνήμη του υπολογιστή μας.

Στο πάνω μέρος της οθόνης, θα δείτε μια μπάρα που λέει “Select a model to load”. Κάντε κλικ και επιλέξτε το αρχείο που μόλις κατεβάσατε.

Η πρώτη σας ερώτηση. Το περιβάλλον είναι αρκετά οικείο, έχει το πλαίσιο πληκτρολόγησης κειμένου στο κάτω μέρος του προγράμματος.

  • Γράψτε την ερώτησή σας: “Γεια σου! Ποιος είσαι και πώς μπορείς να με βοηθήσεις;”
  • Mιλάει Ελληνικά ! Μοντέλα όπως το Llama 3, το DeepSeek και το OpenAI GPT-OSS καταλαβαίνουν και γράφουν Ελληνικά πολύ ικανοποιητικά. Αν απαντήσει στα Αγγλικά, απλά γράψτε του: “Μίλα μου στα Ελληνικά παρακαλώ”.

Chat History: Στα αριστερά, το LM Studio κρατάει ιστορικό των συνομιλιών σου, ακριβώς όπως έχουμε συνηθίσει, για να μπορούμε να επανέλθουμε σε παλιές συζητήσεις ανά πάσα στιγμή.

Stop Generating: Αν αρχίσει να φλυαρεί, μπορούμε να πατήσουμε το κουμπί Stop για να σταματήσει άμεσα.

Regenerate: Αν δεν μας άρεσε η απάντηση, πατήστε το κυκλικό βελάκι κάτω από το μήνυμα για να ξαναγράψει την απάντηση με διαφορετικό τρόπο.


Θα το σηκώσει το PC ; (Απαιτήσεις συστήματος)

Δεν χρειάζεστε ένα υπερ-υπολογιστή αλλά ούτε laptop δεκαετίας. Το μυστικό στην τοπική ΤΝ δεν είναι ο επεξεργαστής αλλά η Μνήμη (RAM) και η Κάρτα Γραφικών (GPU).

Ορίστε ένας απλός οδηγός :

  • Το ιδανικό (Standard Laptop/PC): Για να τρέξετε τα μοντέλα 8B όπως το Llama 3 ή DeepSeek R1 Distill, χρειάζεσαι τουλάχιστον 8GB RAM (ιδανικά 16GB). Αν έχετε υπολογιστή των τελευταίων 3-4 ετών, πιθανότατα είστε καλυμμένοι.
  • Για χρήστες Mac: Αν έχετε Mac με επεξεργαστή M1, M2 ή M3 που διαχειρίζονται διαφορετικά τη μνήμη ίσως είναι τα καλύτερα μηχανήματα για να τρέχετε τοπική ΤΝ γρήγορα.
  • Για μέγιστη ταχύτητα: Αν έχετε κάρτα γραφικών NVIDIA (RTX), το LM Studio θα την χρησιμοποιήσει και οι απαντήσεις θα γράφονται αστραπιαία.
  • Για παλιά/αδύναμα Laptop: Αν το μηχάνημά ζορίζεται μην πάτε στα μοντέλα “8B”. Στην αναζήτηση, ψάξτε για “TinyLlama” ή “Qwen 1.5B”. Είναι μοντέλα-μινιατούρες που τρέχουν σχεδόν παντού!

Pro Tip: Σε συστήματα με ισχυρούς επεξεργαστές intel με ενσωματωμένα γραφικά και χωρίς ξεχωριστή κάρτα γραφικών μπορείτε να δοκιμάσετε να απενεργοποιήσετε την GPU.

Σε κάθε περίπτωση ένας δείκτης είναι πόσα token4 παράγονται ανά δευτερόλεπτο (tok/sec), όσο περισσότερα τόσο καλύτερα.


Για Developers: Χτίστε τα δικά σας AI Apps με Python

Αν γράφετε κώδικα το LM Studio σας λύνει τα χέρια. Δεν χρειάζεται να περιορίζεστε στο απλό Chat. Η εφαρμογή διαθέτει πλέον το δικό της Python SDK (και TypeScript SDK), που σας επιτρέπει να ενσωματώσετε την Τεχνητή Νοημοσύνη στα δικά σας scripts, εντελώς δωρεάν και τοπικά!
Μπορείτε να φορτώνετε και ξεφορτώνετε μοντέλα μέσω κώδικα. Να φτιάξετε Autonomous Agents που εκτελούν εργασίες για εσάς. Να δημιουργήσετε το δικό σας Chatbot ή εργαλείο ανάλυσης κειμένου.

Ξεκινάμε πολύ εύκολα ανοίγοντας το τερματικό σας και γράφοντας:

Bash
pip install lmstudio

Στη συνέχεια με 4 γραμμές κώδικα μιλάμε στο μοντέλο μας:

Python
import lmstudio as lms

model = lms.llm("qwen/qwen3-4b-2507")
result = model.respond("What is the meaning of life?")

print(result)

Pro Tip: Συνδυάστε το με μοντέλα όπως το Qwen3 Coder 30B ή το Deepseek R1 (που θα βρείτε στη λίστα του LM Studio) για να έχετε έναν πανίσχυρο βοηθό προγραμματισμού που τρέχει αποκλειστικά στο μηχάνημά σας!


💡 4 Tips για να απογειώσετε την εμπειρία σας

Το LM Studio έχει μερικά κρυμμένα “διαμάντια” που μπορούν να αλλάξουν τελείως το αποτέλεσμα που παίρνετε.

1. 🚀 GPU Offloading (Βάλτε το στο τέρμα!) Αν έχετε κάρτα γραφικών (NVIDIA/AMD), μην αφήσετε τον επεξεργαστή να κάνει όλη τη δουλειά. Στο δεξί μενού βρείτε την μπάρα “GPU Offload”. Σύρετε την τέρμα δεξιά (στο Max).

2. 🧠 Διαλέξτε τον κατάλληλο “Ειδικό” Μην χρησιμοποιείτε το ίδιο μοντέλο για τα πάντα. Μπορούμε να έχουμε έχουμε εξειδίκευση:

  • Θέλετε κώδικα; Κατεβάστε μοντέλα που έχουν τη λέξη “Coder” (π.χ. Qwen 2.5 Coder).
  • Θέλετε δύσκολη λογική/μαθηματικά; Κατεβάστε μοντέλα “Thinking” ή “Reasoning” (π.χ. DeepSeek R1).
  • Θέλετε δημιουργική γραφή; Προτιμήστε το Llama 3 ή το Mistral.

3. 🎭 Δώστε του Ρόλο (System Prompt) Πριν ξεκινήσετε το chat, πηγαίνετε στις ρυθμίσεις δεξιά και βρείτε το κουτάκι “System Prompt”. Εκεί ορίζετε την “προσωπικότητα” του AI.

Αντί για σκέτο chat, γράψτε: “Είσαι ένας αυστηρός διορθωτής κειμένων στα Ελληνικά. Βρες τα λάθη μου και εξήγησέ τα.” Η διαφορά στην ποιότητα της απάντησης θα είναι τεράστια.

4. 🛠️ Κάντε τον προσωπικό σας Copilot (Δωρεάν!) Αν γράφετε κώδικα στο VS Code δεν χρειάζεται να πληρώνετε συνδρομές.

  1. Ενεργοποιήστε τον Local Server μέσα από το LM Studio.
  2. Κατεβάστε το πρόσθετο Continue.dev στο VS Code. https://marketplace.visualstudio.com/items?itemName=Continue.continue
  3. Συνδέστε τα και έχετε έναν AI βοηθό που βλέπει τον κώδικά σας και προτείνει λύσεις, χωρίς τα δεδομένα σας να φεύγουν από το pc σας.

🚀 Μείνετε συντονισμένοι για περισσότερα άρθρα !

👇 Μην ξεχάσετε να αφήσετε το σχόλιό σας παρακάτω και να μοιραστείτε το άρθρο με τους φίλους σας. 📢


  1. Τα Large Language Models (LLMs) ή «Μεγάλα Γλωσσικά Μοντέλα» είναι συστήματα τεχνητής νοημοσύνης (AI) που εκπαιδεύονται σε τεράστιους όγκους κειμένου για να κατανοούν, να παράγουν και να επεξεργάζονται την ανθρώπινη γλώσσα.  ↩︎
  2. Το GGUF (GPT-Generated Unified Format) είναι ένας δυαδικός τύπος αρχείου (binary format) ειδικά σχεδιασμένος για την αποθήκευση και την ταχύτατη εκτέλεση μεγάλων γλωσσικών μοντέλων (LLMs), όπως το Llama. Είναι ο διάδοχος του παλαιότερου GGML και αποτελεί το κύριο πρότυπο για εργαλεία όπως το Ollama και το llama.cpp↩︎
  3. Το Ollama είναι ένα εργαλείο ανοικτού κώδικα που επιτρέπει την τοπική εκτέλεση μεγάλων γλωσσικών μοντέλων (LLMs), όπως το Llama 3, το Mistral και το Gemma, στον δικό σας υπολογιστή [1, 3]. ↩︎
  4. Τα tokens στην Τεχνητή Νοημοσύνη (AI), ειδικά στα μεγάλα γλωσσικά μοντέλα (LLMs), είναι τα θεμελιώδη δομικά στοιχεία της γλώσσας που χρησιμοποιούν οι μηχανές για να κατανοήσουν και να επεξεργαστούν το κείμενο. Δεν είναι απαραίτητα ολόκληρες λέξεις, αλλά μικρότερες μονάδες κειμένου.  ↩︎

Similar Posts

Αφήστε μια απάντηση