Replies: 6 comments
-
Thanks for reporting! Semantic search & vector embedding does not use the LLM, so it's not surprising that this is working even if Ollama isn't. Can you please try if Ollama works at all with the OpenAI API, following e.g. this guide? https://ollama.com/blog/openai-compatibility If you can very this works, we can debug the Gramps Web API configuration. |
Beta Was this translation helpful? Give feedback.
-
So, I play with ollama and find issue with no models pulled - it should be done manually or via API, I simply
And discover ugly Ukrainian answers, so next tests was in English, but it works! |
Beta Was this translation helpful? Give feedback.
-
Maybe I need another model less censored - it strange that it cannot answer with information about NKVD repressions that touch most families in Ukraine around 30s, I has a lot of such in my tree |
Beta Was this translation helpful? Give feedback.
-
That's very interesting. So it seems the setup is working now, but we are hitting an issue with LLM "security" interfering with historical context. I wonder if playing with the system prompt would help, i.e. letting the LLM know that the questions are for historical investigations. You could try that out just using curl. |
Beta Was this translation helpful? Give feedback.
-
Look like it can help, promt generated by ChatGPT curl http://localhost:11434/v1/chat/completions -H "Content-Type: application/json" -d '{ "model": "llama3.1", "messages": [{ "role": "system", "content": " {"id":"chatcmpl-177","object":"chat.completion","created":1730744105,"model":"llama3.1","system_fingerprint":"fp_ollama","choices":[{"index":0,"message":{"role":"assistant","content":" |
Beta Was this translation helpful? Give feedback.
-
Since the original issue (404) was resolved but the discussion about system prompt is intersting, converting this to a discussion. |
Beta Was this translation helpful? Give feedback.
-
I deploy local ollama in my docker-compose setup, add gramps web env vars:
GRAMPSWEB_LLM_BASE_URL: "http://ollama:11434/v1"
GRAMPSWEB_LLM_MODEL: FacebookAI/xlm-roberta-base
OPENAI_API_KEY: ollama
Error in grampsweb container:
INFO:httpx:HTTP Request: POST http://ollama:11434/v1/chat/completions "HTTP/1.1 404 Not Found"
ollama container:
ollama | 2024/11/03 19:02:23 routes.go:1158: INFO server config env="map[CUDA_VISIBLE_DEVICES: GPU_DEVICE_ORDINAL: HIP_VISIBLE_DEVICES: HSA_OVERRIDE_GFX_VERSION: HTTPS_PROXY: HTTP_PROXY: NO_PROXY: OLLAMA_DEBUG:false OLLAMA_FLASH_ATTENTION:false OLLAMA_GPU_OVERHEAD:0 OLLAMA_HOST:http://0.0.0.0:11434 OLLAMA_INTEL_GPU:false OLLAMA_KEEP_ALIVE:5m0s OLLAMA_LLM_LIBRARY: OLLAMA_LOAD_TIMEOUT:5m0s OLLAMA_MAX_LOADED_MODELS:0 OLLAMA_MAX_QUEUE:512 OLLAMA_MODELS:/root/.ollama/models OLLAMA_MULTIUSER_CACHE:false OLLAMA_NOHISTORY:false OLLAMA_NOPRUNE:false OLLAMA_NUM_PARALLEL:0 OLLAMA_ORIGINS:[http://localhost https://localhost http://localhost:* https://localhost:* http://127.0.0.1 https://127.0.0.1 http://127.0.0.1:* https://127.0.0.1:* http://0.0.0.0 https://0.0.0.0 http://0.0.0.0:* https://0.0.0.0:* app://* file://* tauri://*] OLLAMA_SCHED_SPREAD:false OLLAMA_TMPDIR: ROCR_VISIBLE_DEVICES: http_proxy: https_proxy: no_proxy:]"
ollama | time=2024-11-03T19:02:23.453Z level=INFO source=images.go:754 msg="total blobs: 0"
ollama | time=2024-11-03T19:02:23.454Z level=INFO source=images.go:761 msg="total unused blobs removed: 0"
ollama | time=2024-11-03T19:02:23.456Z level=INFO source=routes.go:1205 msg="Listening on [::]:11434 (version 0.3.14)"
ollama | time=2024-11-03T19:02:23.463Z level=INFO source=common.go:49 msg="Dynamic LLM libraries" runners="[cpu_avx2 cuda_v11 cuda_v12 cpu cpu_avx]"
ollama | time=2024-11-03T19:02:23.464Z level=INFO source=gpu.go:221 msg="looking for compatible GPUs"
ollama | time=2024-11-03T19:02:23.484Z level=INFO source=gpu.go:384 msg="no compatible GPUs were discovered"
ollama | time=2024-11-03T19:02:23.484Z level=INFO source=types.go:123 msg="inference compute" id=0 library=cpu variant=avx2 compute="" driver=0.0 name="" total="15.6 GiB" available="14.9 GiB"
and when chat interactions come
ollama | [GIN] 2024/11/03 - 19:05:06 | 404 | 3.182725ms | 172.18.0.6 | POST "/v1/chat/completions"
ollama | [GIN] 2024/11/03 - 19:06:16 | 404 | 354.065µs | 172.18.0.6 | POST "/v1/chat/completions"
ollama | [GIN] 2024/11/03 - 19:06:19 | 404 | 348.557µs | 172.18.0.6 | POST "/v1/chat/completions"
ollama | [GIN] 2024/11/03 - 19:06:22 | 404 | 303.619µs | 172.18.0.6 | POST "/v1/chat/completions"
The only one thing disturbing me is that I use GRAMPSWEB_VECTOR_EMBEDDING_MODEL: "paraphrase-multilingual-MiniLM-L12-v2" for my semantic search and it returns me all 221+k results when I try search any text with semantic search.
My container configured for uk-UA locale - a lot of things in my DB in Ukrainian or russian language.
in logs I see next logs:
grampsweb | INFO:sentence_transformers.SentenceTransformer:Use pytorch device_name: cpu
grampsweb | INFO:sentence_transformers.SentenceTransformer:Load pretrained SentenceTransformer: paraphrase-multilingual-MiniLM-L12-v2
grampsweb | УВАГА: Модуль isfamilyfiltermatchevent не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль ageatdeath не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль peopleeventscount не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль associationsofpersonmatch не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль degreesofseparation не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль isrelatedwithfiltermatch не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль hasrolerule не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль familieswitheventfiltermatch не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль multipleparents не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль infamilyrule не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль hassourcefilter не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль activepersonrule не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль postgresql не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
grampsweb | УВАГА: Модуль sharedpostgresql не має перекладу на жодну з мов, вибраних Вами. Використовую американську англійську
Gramps details:
Gramps 5.2.3
Gramps Web API 2.5.0
Gramps Web Frontend 24.10.0
Gramps QL 0.3.0
Sifts 1.0.0
locale: uk
multi-tree: false
task queue: true
OCR: true
chat: true
Beta Was this translation helpful? Give feedback.
All reactions