Hallo zusammen,
nachdem ich mir ollama auf Docker installiert habe, würde ich nun gerne für das Ausführen des LLMs von der CPU auf die GPU switchen. Kann mir jemand von Euch sagen wie das geht. Vielen Dank.
Join our community with over 10,000 members!
Register yourself now for free to get full access to all content, graphics, downloads and other exclusive features!