Calling Large Language Models with Ollama via ReST Services

Large Language Models mit Ollama über ReST-Services aufrufen: Eine Schritt-für-Schritt Anleitung für Linux Server. In unserem vorigen Video, haben wir gezeigt, wie man Ollama und das Open WebUI auf einem Linux System lokal installieren kann. Du findest diesen ersten Teil hier. In diesem Video zeigen wir, wie du dein lokales LLM Modell über ReST Services […]
AI in Individual Software Development

Review of the CIIT AI TECH TALK A day full of exciting presentations and innovative solutions from software experts. We, CIIT Software, an experienced provider of customized software solutions with locations in Vienna and Munich, look back on our successful AI TECH TALK 2024! It was a day full of valuable insights and stimulating discussions about the integration [...]