У нас вы можете посмотреть бесплатно Hands-on: Texterkennung (OCR) durch lokale KI: Endlich Handschrift & Kassenbons erkennen? или скачать в максимальном доступном качестве, видео которое было загружено на ютуб. Для загрузки выберите вариант из формы ниже:
Если кнопки скачивания не
загрузились
НАЖМИТЕ ЗДЕСЬ или обновите страницу
Если возникают проблемы со скачиванием видео, пожалуйста напишите в поддержку по адресу внизу
страницы.
Спасибо за использование сервиса ClipSaver.ru
Lerne, wie du deine eigene lokale KI betreibst: Hier geht es zur Masterclass: https://www.digitalisierung-mit-kopf.... In Über dieses Video: Klassische OCR (wie Tesseract) stößt oft an ihre Grenzen – besonders bei schlechten Scans, komplexen Kassenbons oder Handschrift. Doch lokale KI-Modelle ("Vision Models") werden immer mächtiger. Ich zeige dir heute am Beispiel von Open Web UI und dem Modell qwen2.5vl:7b, was technisch bereits möglich ist. Wir wandeln ein Foto von einem Kassenbon direkt in eine strukturierte Tabelle um – ohne Cloud, zu 100% lokal. ⚠️ Hinweis: Dies ist ein Experiment & Showcase, kein Schritt-für-Schritt Tutorial. Ich möchte gemeinsam mit euch brainstormen, welches Potenzial diese Technologie für unser Dokumentenmanagement hat. Mein System Prompt aus dem Video: Du willst es selbst testen? Kopiere diesen Prompt in dein lokales LLM (z.B. in Open Web UI): Extract line items from a receipt (image and/or OCR text). Rules: Use ONLY what is explicitly visible. Do NOT guess, fix OCR, infer, normalize, or calculate. If unclear or missing → null. Keep original spelling and number formats exactly. Do NOT include totals, taxes, discounts, payment, or cashier lines. Output: Output ONLY a Markdown table. EXACT columns and order: | Position | Beschreibung | Menge | Einzelpreis | Gesamtpreis | Field rules: Position: printed line/index or null Beschreibung: item text only Menge: explicit quantity or null Einzelpreis: explicit unit price or null Gesamtpreis: explicit line total or null Currency exactly as shown, otherwise null Output nothing except the table. Die Vision: Integration in Paperless-ngx Der nächste logische Schritt wäre eine direkte Schnittstelle zu Paperless-ngx. Man könnte z.B. via Pre-Consume-Script die Texterkennung von der KI übernehmen lassen, bevor das Dokument archiviert wird. Frage an dich: Siehst du hier auch riesiges Potenzial? Würdest du dir ein Tutorial wünschen, wie man so ein Skript für Paperless baut, sobald der Workflow stabil ist? Schreib es mir gerne in die Kommentare!