AI.nhorn

Technischer Funktionsreport
SCORING MATRIX v19 · 14 SCORE-DIMS + 10 KONTEXT · 8-FAKTOR FINAL SCORE · INVESTMENT REPORT v2 · STAND MÄRZ 2026

🏰 App öffnen — ainhornfinder.com
Inhalt
🎯
Executive Summary
01

AI.nhorn ist ein KI-gestütztes Startup-Investment-Screening-Tool, das einen europäischen AI-Fonds dabei unterstützt, aus ~22.000 Startup-Datensätzen in Airtable die vielversprechendsten Investmentkandidaten zu identifizieren.


Das System arbeitet in drei Stufen: Ein Regex-basierter Pre-Score bewertet alle Startups sofort über 14 Dimensionen. Danach verfeinert ein 8-Faktor Final Score (Unit Economics, Data, Social Signals, VC-/PE-Perspektive, Holistic LLM, Cross-Validation, Completeness) die besten Kandidaten progressiv. Auf Klick liefert eine Deep Analysis mit Web-Recherche, Meeting-Notizen und vollständiger KI-Bewertung das finale Urteil. Unit Economics (Burn Multiple, NDR, LTV/CAC, Rule of 40) sind ein Kernfokus der aktuellen Matrix v19.

~22.000
Records in Airtable
Bis 50.000 paginiert ladbar (500 Seiten × 100)
~8.000–15.000
Nach Auto-Filtern
"no fit", "rejected", "acquired", "insolvency" automatisch ausgeschlossen + User-Filter
Alle gescored
14-Dimensionen Pre-Score (Regex)
Gewichteter Durchschnitt über 14 Dimensionen, sortiert
Top 10
Web + LLM Enrichment
Web-Recherche, Semantic LLM Scoring, Entity Resolution
1
Deep Analysis on-demand
Alle Quellen + Fireflies + vollständiges Fazit
ELI5 — Kurz erklärt

Stell dir vor, du hast 22.000 Bewerbungen auf dem Tisch. AI.nhorn sortiert sofort alle vor, prüft die Top-10 gründlich, und erstellt für deinen Favoriten ein komplettes Dossier — mit Begründung und Warnsignalen.

🗺️
System-Scope & Architektur
02

Die gesamte Plattform im Überblick — von der Datenquelle bis zum Output:

📊
Airtable
~22K Records
80+ Felder
Auto-Mapping
🌐
Web Search
DDG + Brave
Page Scraping
Entity Resolution
🧠
Multi-LLM
Pollinations → Gemini
→ OpenRouter → HF
→ Heuristik
🎙️
Fireflies
GraphQL API
Meeting-Transkripte
Nur Deep Analysis
▼ ▼ ▼ ▼
⚙️
Scoring Engine
14 Score-Dims + 10 Kontext · 8-Faktor Final Score · Unit Economics · Freshness Decay · Cross-Validation · Confidence Band · Fazit-Engine mit K.O.-Kriterien
🔌
12 API Routes
Serverless (Vercel Pro)
240s Budget (max 300s)
Rate Limiting
▼ ▼
📋
Score + Fazit
0–100 Score
Verdikt (Top/Potenzial/Kein Fit)
Reasoning pro Dimension
📤
Export & Writeback
CSV / JSON
Share-Links
Airtable Writeback
🖥️
Frontend
Next.js 15 / React 19
Dark/Light · DE/EN
Radar-Charts · Animationen

Funktionsumfang auf einen Blick:

🔍
Bulk-Screening
🦄
Unicorn Hunt
🔎
Startup-Suche
📊
Radar-Charts
🎛️
Filter + Presets
⚖️
Matrix anpassbar
🌐
Web Enrichment
🧠
LLM Semantic
🎙️
Fireflies
📄
Lokale Docs
✍️
Airtable Writeback
📤
CSV / JSON
🔗
Share-Links
🌙
Dark / Light
🌍
DE / EN
📱
Responsive
Unit Economics
👁️
Multi-Perspektive
Cross-Validation
📡
Social Signals
📋
Investment Report NEU
📄
PDF Export
🔗
ClickUp Tasks
ELI5 — Kurz erklärt

4 Datenquellen (Airtable, Web, KI, Meeting-Notizen) fließen in eine Scoring-Engine mit 8-Faktor Final Score, die alles bewertet und in 3 Ausgänge liefert: Score + Fazit, Export, und direkt zurück in Airtable. Die App hat 20 Features von Bulk-Screening über Unit Economics bis Multi-Perspektive.

🔄
Der User-Flow — Vom Start bis zum Deep Dive
03

Der Screening-Prozess läuft in 4 Phasen. Die Architektur ist auf progressive Disclosure optimiert: Sofortige Ergebnisse, die sich schrittweise verfeinern.

Phase 1
User öffnet App / Wählt View
~3–8 Sekunden

Frontend lädt Airtable seitenweise über /api/prefetch (100 Records/Seite, max. 500 Seiten = 50.000). User sieht den Live-Counter und stellt währenddessen Filter + Gewichtungen ein.

📥
16.847 Records ⟳
Phase 2
User klickt "Analyse starten" — Instant Pre-Score
Sekunden

Server filtert Records (Status-Ausschlüsse + User-Filter), dann bewertet scoreFromAirtable() alle via Regex-Heuristik. Ergebnisse werden sortiert — Top-10 sofort sichtbar.

#STARTUPSCORESTATUS
1.DeepMed AIPre-Score: 82⏳ Regex
2.NeocomPre-Score: 80⏳ Regex
...
47.SomeHiddenGemPre-Score: 31⏳ Regex
Phase 3
Progressive Enrichment (Top-N im Hintergrund)
~5–25s pro Startup (240s Budget)

Für die Top 10 läuft automatisch Web-Enrichment + Unit Economics + Social Signals + Multi-Perspektive LLM (VC/PE/Holistic) + Cross-Validation im Hintergrund. Scores updaten live, Startups re-ranken sich. "Hidden Gems" (≥2 starke Signale trotz ≥3 fehlenden Metriken) werden erkannt.

1.DeepMed AIScore: 91✓ Web+LLM
2.SomeHiddenGemScore: 87🔎 Hidden Gem — war: 31
3.NeocomScore: 84✓ Web+LLM
Phase 4
Deep Analysis + Investment Report (on-demand)
~15–60 Sekunden

User klickt auf ein Startup. Ein Request bündelt: Web-Recherche + Fireflies-Check + Unit Economics + Social Signals + Multi-Perspektive LLM (VC + PE + Holistic) + Cross-Validation. Ergebnis: Vollständiges Fazit mit These, Risiken, offenen Fragen, Dimensionen-Breakdown und Quellen. NEU: Per Klick auf "Full Report" öffnet sich ein professioneller, druckoptimierter Investment Report mit SVG-Radar-Charts, Score-Gauge, Waterfall-Visualisierungen und 11 Analyse-Sektionen.

DeepMed AI Score: 91/100 💡 THESE AI-native Medizinprodukt mit FDA-Clearance, 50+ zahlende Kliniken und 3x YoY Growth. ⚠ RISIKEN • CE-Markierung fehlt • Single-Product-Risk 📊 DIMENSIONEN AI-Tiefe: 95 ███████████████████▄ Traktion: 88 █████████████████▄ Team: 78 ███████████████▄
ELI5 — Kurz erklärt

Phase 1: Daten vorladen (wie YouTube-Puffer). Phase 2: Blitzschneller Vorab-Check — wie ein Recruiter der Lebensläufe überfliegt. Phase 3: Top-Kandidaten werden im Hintergrund gründlich geprüft — Rankings ändern sich live. Phase 4: Komplett-Dossier für den Favoriten.

🏗️
Scoring-Architektur — Wie die Engine funktioniert
04

Die Scoring-Engine kombiniert zwei Ebenen: 14 Einzeldimensionen (gewichteter Durchschnitt, nur Dimensionen mit Daten) und einen Final Score (v20), der LLM-Perspektiven, Social Signals und Cross-Validation synthetisiert:

EBENE 1 — Category Average (14 Dimensionen)
CatAvg = Σ(Scorei × Wi) / Σ(Wi)
Nur Dimensionen mit Score >0 · Gewichtung anpassbar · Default Σ = 100
EBENE 2 — Final Score (v20)
LLMblend = Holistic×0.50 + VC×0.30 + PE×0.20
Raw = CatAvg × 0.75 + LLMblend × 0.25
Final = Raw + SocialBoost(0–10) + CVPenalty(0–-30)
Ohne LLM: Final = CatAvg + SocialBoost + CVPenalty · Critical Warnings: −5
Score-Zusammensetzung (mit LLM):
Category Average 75%
LLM Blend 25%
14-Dimensionen ScoreHolistic 50% + VC 30% + PE 20%
Score-Zusammensetzung (ohne LLM / Fallback):
Category Average 100%
Nur strukturierte Daten (kein LLM verfügbar)

Rechenbeispiel — Ebene 1: Category Average (nur Dims mit Score >0):

Revenue (16)
85
1360
Traction (14)
80
1120
Team (14)
60
840
Produkt (14)
80
1120
Growth (8)
70
560
AI-First (6)
95
570
+ 8 weitere...
∅ 55
1540
CAT AVG
7110 / 100
= 71

Rechenbeispiel — Ebene 2: Final Score (mit LLM):

CatAvg × 0.75
71 × 0.75
53.3
Holistic × 0.125
70 × 0.50 × 0.25
8.8
VC × 0.075
72 × 0.30 × 0.25
5.4
PE × 0.05
60 × 0.20 × 0.25
3.0
+ Social Boost
+6
+6.0
− CV Penalty
−3
−3.0
FINAL
73.5 → Round
= 74
Jedes Signal beinhaltet
Score (0–100) · Gewicht (0–12%) · Quelle (Airtable/Web/LLM) · Reasoning (warum genau dieser Score) · Nachvollziehbar für jeden einzelnen Datenpunkt.
Confidence Band
Jeder Score bekommt ein Unsicherheitsband: Score 78 ±5 (hoch) vs. Score 52 ±20 (niedrig). Mehr Datenlücken = breiteres Band. Margin ≤8 = "hoch", ≤15 = "mittel", >15 = "niedrig".
8 Faktoren im Final Score
Unit Economics (Burn Multiple, NDR, Rule of 40) · Data Score (14 Dims) · Social Signals · VC-Perspektive · PE-Perspektive · Holistic LLM · Cross-Validation · Data Completeness
5-stufiges Verdict
≥75 + 2+ Quellen = Unicorn · ≥60 = Strong Potential · ≥40 = Potential · ≥20 = Watchlist · <20 = Rejected. Critical Warnings blockieren Unicorn-Verdict.

Multi-Perspektive LLM (VC + PE + Holistic): Die LLM-Analyse bewertet jedes Startup aus 3 Blickwinkeln: VC Seed/A (Deal-Attraktivität, Timing, Team-Market Fit, Wettbewerbs-Moat, Exit-Potenzial), PE/Growth (EBITDA-Potenzial, Operational Leverage, Add-on-Potenzial, Cash Flow, Markt-Konsolidierung) und Holistisch (Gesamtbewertung mit Stärken, Risiken, Empfehlung). Je 5 Sub-Dimensionen pro Perspektive.

🔍 WARUM KEIN MULTIPLIKATIVES MODELL?

Bei einem multiplikativen Ansatz würde eine fehlende Dimension den Score auf 0 setzen. Bei ~22.000 Records mit oft lückenhafter Datenlage wäre das fatal. Das gewichtete Mittel ist robuster. Nachteil: echte K.O.-Kriterien (z.B. "nicht AI-first") fließen nur als niedriger Teilscore ein. Kompensiert durch die Fazit-Engine, die separat auf K.O.-Kriterien prüft.

ELI5 — Kurz erklärt

Ebene 1: Wie eine Schulnote — 14 Fächer, jedes mit eigener Gewichtung. Revenue (16%), Traction (14%), Team (14%), Produkt (14%) sind die Top-4 "Hauptfächer". Ebene 2: 75% kommt aus dem Daten-Score, 25% aus der KI-Jury (Holistic + VC + PE). Social Signals können bis +10 Bonuspunkte geben, Cross-Validation bis -30 abziehen. Eine 0 killt nicht den Schnitt, aber der Lehrer (Fazit-Engine) schreibt daneben: "Achtung, Problem!"

📐
Die Scoring-Matrix — 14 aktive Dimensionen
05

Default-Gewichtung (Summe = 100%), anpassbar durch den User. Basiert auf a16z, Sequoia, Bessemer Cloud 100, YC Metrics. Unit Economics + Traction Fokus in v19. Revenue, Traction, Team und Produkt dominieren mit zusammen 58%.

Kern-Dimensionen — 58% ──────────────

💵
Revenue / ARR
16%
🔄
NDR / Retention / LTV
14%
👤
Gründer / Team
14%
🎯
Produkt / PMF
14%

Growth & Efficiency — 25% ───────

📈
Revenue Growth
8%
🧠
AI-First / Tech Depth
6%
Kapitaleffizienz / Rule of 40
6%
🔥
Burn Multiple / Runway
5%

Markt & Moat — 17% ─────

💰
Funding Stage
4%
🌍
TAM / SAM
3%
⚔️
Wettbewerb / Positioning
3%
💎
Bewertung
3%
🌐
Skalierbarkeit / GTM
2%
🏰
Moat / Defensibility
2%

10 weitere Dimensionen (weight=0): Teamgröße, Execution Speed, Sektor, Europa-Fit, Regulatory/EU AI Act, Kontext-Fit, Co-Investoren, Pipeline Stage, RPA Investierbarkeit, RPA Attraktivität — fließen als informative Signale ins Fazit ein (K.O.-Prüfung), nicht in den numerischen Score.

Gewichtsverteilung (14 aktive Dimensionen):
Rev 16
Trac 14
Team 14
Prod 14
Grw 8
AI 6
KE 6
Brn 5
Rest 17
Top 4 = 58% des Scores6 weitere = 42%

Beispiel: Wie Revenue/ARR (12%) bewertet wird

>€3M ARR
100
€1M–€3M
85
€500K–€1M
65
€100K–€500K
45
Pre-Revenue
25

NEU: Burn Multiple / Runway (7%) — Bessemer Benchmark

BM <1.5x
100
BM <2.5x
75
Lean <10 MA
65
BM 2.5–4x
45
Hoher Burn
20
🦄 UNICORN
≥ 75
+ 3 Quellen, keine Warnings
🚀 STRONG POT.
≥ 60
oder ≥75 mit Warnings
⭐ POTENZIAL
40 – 59
Genauer anschauen
👁 WATCHLIST
20 – 39
Beobachten
✗ REJECTED
< 20
Nicht weiterverfolgen
ELI5 — Kurz erklärt

14 Dimensionen in 3 Gruppen: Kern (58%: Revenue 16%, Traction 14%, Team 14%, Produkt 14%), Growth&Efficiency (25%: Growth 8%, AI-First 6%, KapEff 6%, Burn 5%), Markt&Moat (17%: Funding 4%, TAM 3%, Wettbewerb 3%, Valuation 3%, Skalierbarkeit 2%, Moat 2%). 5 Verdikt-Stufen: Unicorn ≥75, Strong Potential ≥60, Potential ≥40, Watchlist ≥20, Rejected <20.

🔬
Drei Scoring-Stufen — Progressive Verfeinerung
06

Nicht jedes Startup bekommt die gleiche Analyse-Tiefe:

Stufe 1: Pre-Score
Regex + Heuristik
Alle Records · Nur Airtable-Felder · Kein Web/LLM · Sofort · Final Score Fallback: UE(35%) + Data(30%)
Stufe 2: Enriched Score
8-Faktor Final Score
Top 10 · + Web + Multi-LLM + VC/PE-Perspektive + Social Signals · 3–15s pro Startup
Stufe 3: Deep Analysis
Alles + Fireflies
1 Startup · + Meeting-Transkripte + Cross-Validation · 10–25s · Vollständiges Fazit

Final Score — Synthese (v20)

Mit LLM (Stufe 2 + 3): Raw = CatAvg × 0.75 + LLMblend × 0.25
Category Average 75%
Holistic 12.5%
VC 7.5%
PE 5%
14 Dimensionen (gewichteter Ø)LLM Blend: H×0.50 + VC×0.30 + PE×0.20
Ohne LLM (Stufe 1 / Fallback):
Category Average 100%
Rein datengetrieben — kein LLM verfügbar
+0–10
SOCIAL BOOST
LinkedIn ≥10K: +4
5+ Plattformen: +3
Social Score ≥60: +3
-0–30
CV PENALTY
Cross-Validation
Widersprüche
Entity-Mismatch
-5
CRITICAL WARN
Blockiert Unicorn
z.B. kein AI-First
oder Zombie-Verdacht
Web-Score-Einfluss — steigt mit Airtable-Datenlücken:
Airtable 75%
Web 25%
▲ Wenig Lücken
Airtable 50%
Web 50%
▲ Viele Lücken (Web max. 50%)
ELI5 — Kurz erklärt

Stufe 1: Alle schnell überfliegen (nur Dimensionen-Score). Stufe 2: Top-10 gründlich — Google + KI + VC/PE-Perspektive + Social Signals — LLM macht 25% des Scores aus. Stufe 3: Einen komplett durchleuchten. Ohne KI = 100% Daten. Social Signals können bis +10 Punkte geben, Cross-Validation bis -30 abziehen.

🗄️
Datenquellen-Kaskade
07

Jede Dimension nutzt eine Fallback-Kette — die Engine versucht zuerst die beste Quelle und fällt zurück wenn leer:

1
📊
Airtable-Felder (direkt)
~22K Records, 80+ Felder, auto-erkannt via 80 Feld-Mappings mit ~95 Regex-Patterns
▼ leer? Fallback ▼
2
🤖
RPA-Voranalyse
rpa.header.kpi.revenue, rpa.fit.investability, rpa.header.kpi.growth
▼ leer? Fallback ▼
3
📝
Freitextfelder
Deck Summary, AI Description, Tracxn Description — Keyword-Matching + Betrag-Parsing
▼ leer? Fallback ▼
4
🌐
Web-Recherche
DDG/Brave Scraping + Website-Scraping (OG-Tags, Body-Text bis 3.000 Zeichen) + Entity Resolution
▼ zusätzlich ▼
5
🧠
Multi-Provider LLM + Multi-Perspektive
Pollinations → Gemini → OpenRouter → HF → Heuristik · VC-Perspektive (5 Dims) + PE-Perspektive (5 Dims) + Holistic · 30min Cache
▼ zusätzlich ▼
6
📡
Social Signals (8 Plattformen)
LinkedIn · Crunchbase · GitHub · ProductHunt · Twitter/X · Dealroom · Glassdoor · Tracxn

Temporale Interpolation: Wenn ein Feld "Revenue: 1M (2022) → 5M (2025)" enthält, berechnet die Engine die CAGR und interpoliert auf 2026: €8.55M. So werden Prognosen und Zeitreihen automatisch berücksichtigt.

ELI5 — Kurz erklärt

6 Quellen in absteigender Priorität — wie bei einer Telefonliste: erst Handy, dann Festnetz, dann E-Mail. Wenn die beste Quelle leer ist, wird die nächste versucht. NEU: Social Signals (8 Plattformen) und Multi-Perspektive LLM (VC + PE + Holistic) als zusätzliche Quellen.

🛡️
Qualitätssicherung — 4 Sicherheitsnetze
08
1. Freshness Decay — ältere Daten zählen weniger
1.0
0–3Mo
.95
6Mo
.84
12Mo
.73
18Mo
.62
24Mo
.51
30Mo
.40
>36Mo
Lineare Interpolation 1.0 → 0.4 über 3–36 Monate. Kein Timestamp = Default 0.85. Completeness und Kontext-Fit sind vom Decay ausgenommen.
2. Cross-Signal-Validierung
💵+👥
Revenue $2M + 2 MA
⚠ unplausibel
💰+👥
Funding $50M + 5 MA
⚠ unplausibel
💎<💰
Valuation < Funding
⚠ prüfen
🕐+🌱
10 Jahre + noch Seed
⚠ Zombie
Automatische Widerspruchserkennung zwischen Datenpunkten erzeugt Warnings im Fazit.
3. Web Cross-Validation + Entity Resolution
>10x
Score → 20 (gedeckelt)
3–10x
Moderater Abzug
<3x
Akzeptiert
Web-Daten werden mit Airtable verglichen. Entity-Resolution filtert falsche Unternehmen raus.
4. Fazit-Engine — K.O.-Kriterien
AI-First <50 → "KRITISCH: Kein AI-First"
Standort außerhalb EU/IL → "Außerhalb Mandatsgebiet"
Series B+ → "Zu späte Phase"
Unabhängig vom Score — verhindert, dass ein Startup mit hohem Score aber grundlegendem Mismatch durchrutscht.
ELI5 — Kurz erklärt

4 Netze: (1) Alte Daten zählen weniger. (2) Widersprüche werden erkannt. (3) Web-Ergebnisse werden gegengeprüft. (4) K.O.-Kriterien fangen Fehlmatches ab. Jeder Score sagt ehrlich, wie sicher er sich ist (±5 oder ±20).

🌐
API-Architektur — 12 Serverless Endpoints (Vercel Pro)
09
GET
/api/prefetch
Paginierter Airtable-Fetch (100/Seite, max 500 Seiten)
~2s
POST
/api/screen
Haupt-Engine v10: Bulk-Scoring + UE + Social + Multi-Perspektive + LLM + CrossVal
~240s
POST
/api/enrich
Deep Analysis für ein Startup + Fireflies
~60s
POST
/api/search
Fuzzy-Suche nach Startup-Namen
~1s
POST
/api/startup
Einzelstartup-Detail + Scoring
~3s
POST
/api/writeback
Scores in Airtable zurückschreiben
~5s
POST
/api/share
Ergebnisse per Share-Link teilen
~1s
POST
/api/backtest
Scoring-Backtest gegen historische Daten
22s
POST
/api/airtable
Schema + Records laden (legacy)
~2s
*
/api/setup
Integration-Status (Fireflies, Dev)
~1s
POST
/api/stripe/*
Stripe Checkout + Verify
~2s

Sicherheit: IP-Rate-Limiting (30/IP Enrich, 120 Prefetch) · AbortController mit Deadline · Airtable-Token nur serverseitig · Enrichment-Cache · LLM-Cache 30min · Vercel Pro 300s max Timeout (240s Budget) · BudgetManager für Zeitsteuerung

⚙️
Technologie-Stack
10
Frontend
Next.js 15 + React 19
App Router, Framer Motion, Tailwind v4, Lucide Icons, Dark/Light, DE/EN (260+ Keys), 8 spezialisierte Komponenten
Backend
Serverless (Vercel Pro)
12 API Routes, 240s Budget (max 300s), TypeScript, Rate Limiting, BudgetManager
Datenbank
Airtable
~22K Records (max. 50K via 500 Seiten), 80+ Felder, Schema-API, Auto-Mapping
KI / LLM
Multi-Provider + Multi-Perspektive
Pollinations → Gemini → OpenRouter → HF → Heuristik. VC/PE/Holistic-Perspektive. 30min Cache.
Scoring-Libs (12 Module)
Spezialisierte Engine
scoring-engine · semantic-scorer · unit-economics · social-signals · cross-validation · freshness · entity-resolver · web-search · data-aggregator · local-data-parser · backtesting · airtable
UI-Komponenten
9 spezialisierte Views
ScoreBreakdown · UnitEconomicsCard · MultiPerspectiveView · CrossValidationReport · SocialSignalsBadges · DataSourceHeatmap · InvestmentReport (NEU: Full-Screen Profi-Report mit SVG-Visualisierungen) · Card · Button
Next.js 15React 19TypeScriptTailwind v4Framer MotionAirtable APIMulti-LLMDDG / BraveFireflies.aiVercel ProStripe
🔍
Kritische Analyse — Stärken, Schwächen, Grenzen
11

✓ STÄRKEN

  • Geschwindigkeit: Bis zu 22.000 Records laden und scoren
  • Progressive Disclosure: Sofortige Ergebnisse, die sich verfeinern
  • Transparenz: Jedes Signal hat ein reasoning-Feld
  • Auto-Mapping: 80 Feld-Mappings mit ~95 Regex-Patterns
  • Fallback-Kette: Funktioniert auch ohne API-Key
  • Hidden-Gem-Detection: Erkennt unterschätzte Startups
  • Unit Economics: Burn Multiple, NDR, LTV/CAC, Rule of 40 integriert
  • Multi-Perspektive: VC- und PE-Sicht unabhängig bewertet
  • 8-Faktor-Synthese: Robuster als Single-Score-Modelle

⚠ SCHWÄCHEN

  • Datenqualität: Garbage In, Garbage Out
  • Schwellwert-Sprünge: €999K = 65, €1M = 85 (20-Punkte-Sprung)
  • LLM-Inkonsistenz: 4 Provider liefern unterschiedliche Scores
  • Web-Fragilität: DDG/Brave können Scraping blocken
  • Keine Kalibrierung: Schwellwerte nicht gegen Outcomes getestet
  • Latenz: 240s Budget — längere Wartezeiten als bei Netlify (22s)
  • Komplexität: 8-Faktor-Formel schwerer nachvollziehbar als einfacher Durchschnitt
🔎 SCORE-VERTEILUNGS-PROBLEM

Bei 14 Dimensionen, von denen oft 3–5 leer sind (Score 0), tendieren Ergebnisse zur Mitte (40–60). Startups mit wenig Daten können nie "Unicorn" werden — selbst wenn das Vorhandene exzellent ist. Bei ~22.000 Records mit oft lückenhafter Datenlage ist das real. Die Hidden-Gem-Erkennung (mightBeUnderscored) kompensiert teilweise. Das 5-stufige Verdict (statt 3) differenziert besser: "Watchlist" (25–39) fängt Grenzfälle auf.

🔎 FINANCIALS-DOMINANZ (48%)

Die Unit Economics: Financials-Gruppe macht 48% des Data Scores aus (Revenue 12%, Growth 10%, KapEff 9%, Burn 7%, Funding 5%, Valuation 5%). Ein pre-revenue Startup mit bahnbrechendem Foundation Model wird trotz AI-First: 100 systematisch unterbewertet. Gegenargument: Revenue ist der beste PMF-Proxy, und Matrix-Presets erlauben Umgewichtung. Der 8-Faktor Final Score kann über die VC-/PE-/Holistic-Perspektive korrigieren.

Was gut gelöst ist: Confidence-Bands (78 ±5 vs. 52 ±20) kommunizieren Zuverlässigkeit ehrlich. Plausibilitäts-Checks fangen Datenfehler ab. Die Fazit-Engine als separates K.O.-Sicherheitsnetz ist architektonisch sauber. Der 8-Faktor Final Score mit Cross-Validation und Multi-Perspektive (VC vs. PE) reduziert Single-Point-of-Failure-Risiken.

ELI5

Schnell, transparent, funktioniert ohne KI. Aber: schlechte Daten = schlechter Score. Wenig Daten = systematisch unterschätzt. Der 8-Faktor Final Score gleicht Perspektiven aus. Das System sagt ehrlich, wenn es unsicher ist.

📋
Investment Report — Profi-Analyse auf Knopfdruck
12

Per Klick auf "Full Report" öffnet sich ein vollständiger, druckoptimierter Investment Report für jeden Kandidaten. Der Report generiert sich live aus den Scoring-Daten und bietet institutionelle Qualität.

1
Hero & Score Gauge
SVG Arc-Gauge 0–100, Verdict, Confidence, Company-Profil
2
Key Metrics Strip
Funding, Valuation, Revenue, Location, Sector, Investors
3
Score Composition
Airtable vs. Web vs. Final Score, Waterfall-Balken, LLM Blend
4
SVG Radar-Chart
14 Dimensionen auf einen Blick, animierte Polygone
5
Investment Thesis
KI-Fazit, Empfehlung, Stärken/Risiken, Audit-Notizen
6
Kategorie-Analyse
6 Gruppen, jedes Signal mit Score, Reasoning, Quelle
7
Multi-Perspektive
VC, PE, Holistic — je 5 Sub-Dimensionen mit Score-Balken
8
Unit Economics
Burn Multiple, NDR, Rule of 40, LTV/CAC, Payback
9
Data Quality & Confidence
Completeness, Signal-Heatmap, Plausibility Warnings
10
Social & Methodik
Social Signal Badges, Datenquellen, Scoring-Methodik, Disclaimer
───── INVESTMENT REPORT PREVIEW ───── DeepMed AI ◉ 91 🦄 UNICORN ┌─────────────── RADAR CHART ──────────────┐ Revenue ████████████████ 85 Traction ███████████████████ 95 Team ██████████████ 72 Product ██████████████████ 90 AI-First ███████████████████ 98 └───────────────────────────────────────────┘ 💡 THESE: AI-native Medizinprodukt, FDA-Clearance, 3x YoY ⚠ RISIKEN: CE-Markierung fehlt, Single-Product-Risk ✓ EMPFEHLUNG: Stark investierbar, VC-Perspektive 88/100
Technologie
SVG-Visualisierungen: ScoreArcGauge (240°-Bogen), RadarChartFull (14-Achsen-Polygon), MiniGauge, WaterfallBar — alle vektor-basiert, druckoptimiert, skalierbar.
Trigger & Daten
Vollständig live: Kein Pre-Rendering — der Report generiert sich aus dem Candidate-Objekt mit allen Enrichment-Daten, Signals, Fazit und Multi-Perspektive.
ELI5 — Kurz erklärt

Ein Klick → ein kompletter Investment-Report wie vom Analysten, mit Radar-Chart, Score-Gauge, detaillierter Kategorie-Analyse und Investment-These. Druckfertig, bilingual, live generiert.

🏁
Zusammenfassung
13
22K+
Startups analysierbar
14+10
Score + Kontext Dims
6+8
Quellen + Faktoren
12
API Endpoints


ELI5 — Das Ganze in einem Satz

AI.nhorn liest bis zu 22.000 Startup-Datenblätter, bewertet jedes in 14 Dimensionen (Revenue 16%, Traction 14%, Team 14%, Produkt 14% = Top 4), blendet KI-Perspektiven ein (Holistic 50% + VC 30% + PE 20%), prüft die besten 10 im Internet, und sagt: "Dieses Startup solltest du dir ansehen — hier ist warum, hier sind die Risiken, und so sicher bin ich mir." Per Klick gibt's einen druckfertigen Investment Report.

Direkt zur App: 🏰 AI.nhorn öffnen ainhornfinder.com