Kuinka ajaa LLM paikallisesti Macissa

Kuinka ajaa LLM paikallisesti MacissaKuinka ajaa LLM paikallisesti Macissa

Oletko koskaan miettinyt, voisitko ajaa jotain ChatgPT: tä paikallisesti Macissa tarvitsematta Internetiä? Vain vähän asennuksella voit todella. Se myös ilmaiseksi. Haluatpa pitää keskustelut yksityisenä tai haluat vain offline -pääsyn AI: lle, näin voit suorittaa voimakkaita suuria kielimalleja paikallisesti Mac -Macissa.

Kuinka ajaa LLM paikallisesti MacissaKuinka ajaa LLM paikallisesti Macissa
#Image_title

Mitä tarvitset LLM: n ajamiseen paikallisesti Macilla?

Ennen kuin sukellamme sisään ja tarkista asennus, tässä tarvitset:

Tule iOS 18 -mestari:

Hanki yksinoikeus iOS 18 eBook 📚 ilmaiseksi Kun kirjaudut alla olevaan uutiskirjeeseen.

  • Mac, jossa on omenapii (M1, M2 tai M3 suositeltu)
  • Ainakin 8 Gt: n RAM (vähintään 16 Gt on parempi)
  • Noin 4–10 Gt vapaata levytilaa (mallista riippuen)
  • Toimiva Internet -yhteys (vain asennusta varten)
  • Perusperhe MacOS -päätelaitteen käytön käytöstä (sinun ei tarvitse olla ammattilainen)

Kuinka ajaa LLM paikallisesti Macilla

Käytämme ilmaista Ollama -nimistä työkalua, jonka avulla voit ladata ja ajaa LLMS paikallisesti vain muutamalla komennolla. Näin pääset aloittamaan:

Vaihe 1: Asenna Homebrew (ohita, jos jo asennettu)

HomeBrew on MacOS: n pakettihallinta, joka auttaa sinua asentamaan sovelluksia päätelaitteesta. Jos sinulla on jo asennettu kotibrew Maciin, voit ohittaa tämän vaiheen. Mutta jos et, niin voit asentaa sen:

  1. Avaa terminaalisovellus laukaisusta tai valokeilasta.
  2. Kopioi ja liitä seuraava komento ja paina paluu:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  1. Odota asennuksen valmistumista. Se voi viedä muutaman minuutin. Kun olet valmis, tarkista, toimiiko se kirjoittamalla:
brew doctor

Jos näet ”järjestelmäsi on valmis panostamaan”, olet hyvä mennä.


Kun asennusprosessi Homebrew on valmis käytettäväksi Macissa "Järjestelmä on valmis panimemaan" -viestiä MacOS -päätelaitteessa asentamalla Homebrew.Kun asennusprosessi Homebrew on valmis käytettäväksi Macissa "Järjestelmä on valmis panimemaan" -viestiä MacOS -päätelaitteessa asentamalla Homebrew.

Jos sinulla on ongelmia tai haluat yksityiskohtaisemman vaiheittaisen prosessin, tutustu oppaamme Homebrew-asentamiseen Maciin.

Vaihe 2: Asenna ja suorita Ollama

Nyt kun Homebrew on asennettu ja valmis käytettäväksi Maciin, asennetaan Ollama:

  1. Pääteikkunassa: Suorita:
brew install ollama
  1. Asennuksen jälkeen aloita Ollama -palvelu käyttö:
ollama serve

Jätä tämä ikkuna auki tai minimoi se. Tämä komento pitää Ollaman käynnissä taustalla.

Lataa vaihtoehtoisesti Ollama -sovellus ja asenna se kuten mikä tahansa tavallinen Mac -sovellus. Kun olet valmis, avaa sovellus ja pidä se käynnissä taustalla.


Ollama -verkkosivuston latauspainikkeella ladata sovelluksensa MacilleOllama -verkkosivuston latauspainikkeella ladata sovelluksensa Macille

Vaihe 3: Lataa ja suorita malli

Ollama antaa sinulle pääsyn suosittuihin LLM: iin, kuten Deepseek, Meta’s Llaama, Mistral, Gemma ja paljon muuta. Näin voit valita ja ajaa yhden:

  1. Käydä Ollama -hakusivu Löydät kaikki AI -mallit, joita voit käyttää paikallisesti Ollaman kautta Macista.
    Ollama -hakusivu luettelolla kaikista yhteensopivista LLM: stäOllama -hakusivu luettelolla kaikista yhteensopivista LLM: stä
  2. Valitse asennettava LLM -malli. (Käytän Deepseek-R1: tä, koska se on pieni malli, joka vie vain 1,1 Gt tilaa ja on tehokasta.)
    Valitse LLM asentaaksesi Ollama -haku -sivulleValitse LLM asentaaksesi Ollama -haku -sivulle
  3. Tällä sivulla löydät tämän komennon: ollama run [model-name]. Se on erilainen eri malleissa.
  • Deepseek R1 1,5B -malli: ollama run deepseek-r1:1.5b
  • Laama 3 -mallille: ollama run llama3
  • Mistralille: ollama run mistral
  1. Kopioi ja liitä tämä komento pääteikkunaan. Ensimmäisen kerran kun suoritat tämän, Ollama lataa mallin. Tämä voi kestää muutaman minuutin Internet -nopeudesta riippuen.
    Deepseek R1 -mallin suorittaminen Ollaman kautta MacOS -terminaalisovelluksessaDeepseek R1 -mallin suorittaminen Ollaman kautta MacOS -terminaalisovelluksessa
  2. Kun malli on ladattu, näet kehotuksen kirjoittaa syötesi. Keskustelet nyt mallin kanssa!

Jos valitset suuren mallin, odota jonkin verran viivettä – koko malli on paikallisesti MacBookissa. Pienemmät mallit reagoivat nopeammin, mutta ne voivat kamppailee tarkkuudella, etenkin matematiikassa ja logiikkaan liittyvissä tehtävissä. Muista myös, että koska näillä malleilla ei ole Internet-yhteyttä, he eivät voi hakea reaaliaikaista tietoa.

Toisin sanoen, kuten kieliopin, sähköpostien kirjoittamisen tai ideoiden kirjoittamisen tarkistaminen, ne toimivat loistavasti. Olen käyttänyt Deepseek-R1: tä laajasti MacBookissani web-käyttöliittymän asetuksella, jonka avulla voin myös ladata kuvia ja liittää koodinpätkiä. Vaikka sen vastaukset-ja etenkin sen koodaustaidot-eivät ole niin teräviä kuin ylimmän tason malleja, kuten ChatgPT tai Deepseek 671b, se saa silti useimmat jokapäiväiset tehtävät tarvitsematta Internetiä.

Vaihe 4: Keskustele mallin kanssa terminaalissa

Kun malli on käynnissä, voit kirjoittaa viestisi ja paistaa paluu. Malli vastaa juuri alla.

Jos haluat poistua istunnosta, painamalla näppäimistöllä olevaa ohjausta+D. Kun haluat aloittaa juttelun uudelleen, käytä vain samaa ollama run [model-name] komento. Koska malli on jo ladattu, se käynnistyy heti.


Jutteleminen Deepseek R1: n kanssa Ollaman kautta MacOS -terminaalisovelluksessaJutteleminen Deepseek R1: n kanssa Ollaman kautta MacOS -terminaalisovelluksessa

Vaihe 5: Katso ja hallitse asennettuja malleja

Tarkista, mitkä mallit on tällä hetkellä ladattu, suorita:

ollama list


Kaikkien asennetuista LLM: ien valaistuksesta MacissaKaikkien asennetuista LLM: ien valaistuksesta Macissa

Käytä mallin, jota et enää tarvitse, käytä:

ollama rm [model-name]

Bonus: Käytä Ollamaa käyttöliittymän kanssa verkossa

Vaikka Ollama toimii päätelaitteessa, se aloittaa myös paikallisen sovellusliittymän palvelun osoitteessa http: // localhost: 11434, jolloin voit kytkeä sen verkkoliittymään visuaalista vuorovaikutusta mallien kanssa – samanlainen chatbotin käyttämiseksi. Yksi suosittu vaihtoehto tälle on Open Webui, joka tarjoaa käyttäjäystävällisen käyttöliittymän Ollaman ydintoimintojen päällä. Katsotaanpa kuinka asettaa se.

Vaihe 1: Asenna Docker

Docker on työkalu, jonka avulla voit pakata ohjelman ja kaikki sen olennaiset elementit kannettavaan säilöön, jotta voit käyttää sitä helposti millä tahansa laitteella. Käytämme sitä avaamaan verkkopohjaisen chat-käyttöliittymän AI-mallillesi.

Jos Macilla ei ole jo sitä, seuraa näitä vaiheita Dockerin asentamiseen:

  1. Ladata Docker -työpöytä Suorita se Macille ja noudata näytön ohjeita asennuksen suorittamiseksi.
  2. Käynnistä Docker -sovellus ja kirjaudu sisään.
  3. Avaa pääte ja kirjoita alla oleva komento vahvistaaksesi asennuksen:
docker --version


Tarkistaminen, onko Docker asennettu Maciin päätelaitteen kauttaTarkistaminen, onko Docker asennettu Maciin päätelaitteen kautta

Jos komento palauttaa versionumeron, se tarkoittaa, että Docker on asennettu Maciin.

Vaihe 2: Vedä avoin Webui -kuva

Avaa Webui on yksinkertainen työkalu, joka antaa sinulle chat -ikkunan selaimessa. Kuvan vetäminen tarkoittaa vain sen suorittamiseen tarvittavien tiedostojen lataamista.

Siirry tämän tekemiseen päätelaitteeseen ja kirjoita:

docker pull ghcr.io/open-webui/open-webui:main

Tämä lataa käyttöliittymän tarvittavat tiedostot.

Vaihe 3: Suorita Docker -säilö ja avaa Webui

Nyt on aika ajaa avoin Webui Dockerin avulla. Näet puhtaan käyttöliittymän, jossa voit keskustella AI: n kanssa – mitään terminaalia ei tarvita. Tässä on mitä sinun on tehtävä:

  1. Käynnistä Docker -säilö pysyvällä tietojen tallennus- ja kartoitetulla porteilla:
docker run -d -p 9783:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main


Docker -säiliön aloittaminen tietojen tallentamisella MacOS -päätesovelluksen kauttaDocker -säiliön aloittaminen tietojen tallentamisella MacOS -päätesovelluksen kautta

  1. Odota muutama sekunti säiliön alkamiseen.
  2. Avaa selaimesi ja siirry osoitteeseen:
http://localhost:9783/
  1. Luo tili, kun pyydetään, ja sinut ohjataan pääliittymään.


Deepseek R1, joka toimii avoimen webuin sisällä MacissaDeepseek R1, joka toimii avoimen webuin sisällä Macissa

Täältä voit keskustella minkä tahansa asennetun mallin kanssa puhtaassa, käyttäjäystävällisessä selainliittymässä. Tämä vaihe on valinnainen, mutta se antaa sinulle sujuvamman chat -kokemuksen käyttämättä päätettä.

Mac, AI: Ei palvelimia, ei jousia

Se on! Vain muutamassa vaiheessa olet perustanut Mac -palvelun tehokkaan AI -mallin suorittamiseen kokonaan offline -tilassa. Ei tilejä, pilviä eikä Internetiä tarvita asennuksen jälkeen. Haluatpa yksityisiä keskusteluja, paikallista tekstin luomista vai haluatko vain kokeilla LLM: ää, Ollama tekee siitä helpon ja helposti saavutettavan – vaikka et ole kehittäjä. Kokeile!

Katso myös nämä hyödylliset oppaat:

  • Kuinka suorittaa Android -sovelluksia Macissa
  • Kuinka seuloa nact -levylle
  • Kuinka asentaa git Maciin
Tule iOS 18 -mestari:

Hanki yksinoikeus iOS 18 eBook 📚 ilmaiseksi Kun kirjaudut alla olevaan uutiskirjeeseen.

Recent Articles

spot_img

Related Stories

Stay on op - Ge the daily news in your inbox

[tdn_block_newsletter_subscribe input_placeholder="Email address" btn_text="Subscribe" tds_newsletter2-image="730" tds_newsletter2-image_bg_color="#c3ecff" tds_newsletter3-input_bar_display="" tds_newsletter4-image="731" tds_newsletter4-image_bg_color="#fffbcf" tds_newsletter4-btn_bg_color="#f3b700" tds_newsletter4-check_accent="#f3b700" tds_newsletter5-tdicon="tdc-font-fa tdc-font-fa-envelope-o" tds_newsletter5-btn_bg_color="#000000" tds_newsletter5-btn_bg_color_hover="#4db2ec" tds_newsletter5-check_accent="#000000" tds_newsletter6-input_bar_display="row" tds_newsletter6-btn_bg_color="#da1414" tds_newsletter6-check_accent="#da1414" tds_newsletter7-image="732" tds_newsletter7-btn_bg_color="#1c69ad" tds_newsletter7-check_accent="#1c69ad" tds_newsletter7-f_title_font_size="20" tds_newsletter7-f_title_font_line_height="28px" tds_newsletter8-input_bar_display="row" tds_newsletter8-btn_bg_color="#00649e" tds_newsletter8-btn_bg_color_hover="#21709e" tds_newsletter8-check_accent="#00649e" embedded_form_code="YWN0aW9uJTNEJTIybGlzdC1tYW5hZ2UuY29tJTJGc3Vic2NyaWJlJTIy" tds_newsletter="tds_newsletter1" tds_newsletter3-all_border_width="2" tds_newsletter3-all_border_color="#e6e6e6" tdc_css="eyJhbGwiOnsibWFyZ2luLWJvdHRvbSI6IjAiLCJib3JkZXItY29sb3IiOiIjZTZlNmU2IiwiZGlzcGxheSI6IiJ9fQ==" tds_newsletter1-btn_bg_color="#0d42a2" tds_newsletter1-f_btn_font_family="406" tds_newsletter1-f_btn_font_transform="uppercase" tds_newsletter1-f_btn_font_weight="800" tds_newsletter1-f_btn_font_spacing="1" tds_newsletter1-f_input_font_line_height="eyJhbGwiOiIzIiwicG9ydHJhaXQiOiIyLjYiLCJsYW5kc2NhcGUiOiIyLjgifQ==" tds_newsletter1-f_input_font_family="406" tds_newsletter1-f_input_font_size="eyJhbGwiOiIxMyIsImxhbmRzY2FwZSI6IjEyIiwicG9ydHJhaXQiOiIxMSIsInBob25lIjoiMTMifQ==" tds_newsletter1-input_bg_color="#fcfcfc" tds_newsletter1-input_border_size="0" tds_newsletter1-f_btn_font_size="eyJsYW5kc2NhcGUiOiIxMiIsInBvcnRyYWl0IjoiMTEiLCJhbGwiOiIxMyJ9" content_align_horizontal="content-horiz-center"]