Large Language Models mit Ollama über ReST Services aufrufen

Large Language Models mit Ollama über ReST-Services aufrufen: Eine Schritt-für-Schritt Anleitung für Linux Server. In unserem vorigen Video, haben wir gezeigt, wie man Ollama und das Open WebUI auf einem Linux System lokal installieren kann. Du findest diesen ersten Teil hier. In diesem Video zeigen wir, wie du dein lokales LLM Modell über ReST Services […]

KI in der individuellen Softwareentwicklung

Rückblick auf den CIIT AI TECH TALK Ein Tag voller spannender Vorträge und innovativer Lösungen von Software-Experten. Wir, die CIIT Software, ein erfahrener Anbieter maßgeschneiderter Softwarelösungen mit Standorten in Wien und München, blicken auf unseren erfolgreichen AI TECH TALK 2024 zurück!  Es war ein Tag voller wertvoller Einblicke und anregenden Diskussionen rund um die Integration […]