Tärkeimmät takeawayt:


- Voit käyttää Ollaman kaltaisia työkaluja hyödyntääksesi avoimen lähdekoodin tekoälymallien ominaisuuksia suoraan laitteellasi.
- Kun käytät näitä tekoälymalleja paikallisesti, ohitat pilvipalvelun ja saat etuja, kuten yksityisyyden ja nopeamman päättelyn.
Kuinka ajaa tekoälymalleja paikallisesti Windowsissa Ollaman avulla
Voit käyttää AI-malleja, kuten ChatGPT:tä, paikallisesti tietokoneellasi ilman Internet-yhteyttä. Monet palvelut auttavat sinua tässä prosessissa. Esittelemme sen kuitenkin Ollamalla.
Lataa ja asenna Ollama
Vaihe 1: Siirry kohtaan Ollaman nettisivut ja napsauta Lataa-painiketta.

Vaihe 2: Valitse käyttöjärjestelmä ja napsauta Lataa.


Vaihe 3: Kaksoisnapsauta ladattua tiedostoa > napsauta Asenna > seuraa asennusohjeita.


Asennuksen jälkeen sinun pitäisi nähdä ponnahdusikkuna, jossa sanotaan, että Ollama on käynnissä.
Vaihe 4: Käynnistä terminaali. Paina Windowsissa Windows + R, kirjoita cmd ja paina Enter.
Vaihe 5: Lataa ensimmäinen tekoälymallisi käyttämällä alla olevaa komentoa. Varmista, että vaihdat mallin todelliseen malliin Ollamassa; nämä voivat olla Llama 3, Phi 3, Mistral, Gemma jne. Ole kärsivällinen; Tämä voi kestää hetken.
Ollama pull model


Kuinka kommunikoida ladattujen mallien kanssa Ollamassa
Nyt kun olet asentanut tekoälymallin, voit kommunikoida sen kanssa. Tämä on samanlaista kuin kommunikointi Gemini- tai ChatGPT-AI:iden kanssa verkkorajapintojen kautta. Noudata alla olevia ohjeita.
Vaihe 1: Käynnistä Terminal tietokoneellasi.
Vaihe 2: Kirjoita alla oleva komento. Voit korvata lataamasi mallin nimen komennossa llama3.
Ollama run llama3


Vaihe 3: Kirjoita lopuksi kehote ja paina Enter kuten ChatGPT:ssä tai Geminissä. Sinun pitäisi sitten pystyä olemaan vuorovaikutuksessa tekoälyn kanssa.
FAQ
Voitko käyttää generatiivista tekoälyä paikallisesti?
Kyllä, voit, ja tällä hetkellä Stable Diffusion on luotettavin keino. Työkalut kuten Vakaa diffuusio WebUI ja InvokeAI antaa pääsyn Stable Diffusioniin paikallista kuvan luomista varten.









