<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Llama.cpp on Future Pulse Tech - KI-Kompetenz &amp; Future Skills</title><link>http://future-pulse.de/tags/llama.cpp/</link><description>Recent content in Llama.cpp on Future Pulse Tech - KI-Kompetenz &amp; Future Skills</description><image><title>Future Pulse Tech - KI-Kompetenz &amp; Future Skills</title><url>http://future-pulse.de/images/og-image.png</url><link>http://future-pulse.de/images/og-image.png</link></image><generator>Hugo -- 0.146.0</generator><language>de-DE</language><lastBuildDate>Wed, 25 Mar 2026 09:22:05 +0100</lastBuildDate><atom:link href="http://future-pulse.de/tags/llama.cpp/index.xml" rel="self" type="application/rss+xml"/><item><title>Lokale KI: Schütze deine Privacy mit Ollama und Co.</title><link>http://future-pulse.de/blog/lokale-ki-privacy-mit-ollama/</link><pubDate>Wed, 25 Mar 2026 00:00:00 +0000</pubDate><guid>http://future-pulse.de/blog/lokale-ki-privacy-mit-ollama/</guid><description>Warum deine ChatGPT-Chats nicht privat sind – und wie du mit Ollama, LM Studio und llama.cpp alle Daten lokal hältst. Der Praxis-Guide für Privacy-bewusste Nutzer.</description></item></channel></rss>