# 3. Methodische Schritte im Überblick

**Phase 1** des Projekts gliederte sich in mehrere methodische Schritte, die im Folgenden überblicksartig dargestellt werden:

**1. Skizzierung von Wireframes und Informationsbedarfen**

* Erste Entwürfe einer funktionalen Benutzeroberfläche wurden direkt in der No-Code-Entwicklungsumgebung *Bubble* umgesetzt.
* **Learning:** Für vergleichbare Vorhaben empfiehlt sich in der frühen Konzeptionsphase der Einsatz spezialisierter UI/UX-Design-Tools (z. B. *Figma*), um erste Gestaltungsideen strukturierter und schneller zu visualisieren. *Bubble* hingegen erwies sich für die spätere Implementierung funktionaler Logiken als sehr leistungsfähig.

**2. Aufbau der Datenbankstruktur**

* Erstellung von Tabellen, Datenfeldern und Beziehungen zwischen zentralen Entitäten (z. B. Kurseinheiten, KI-Einstellungen, Nutzerprofile).
* Die strukturierte Datenmodellierung diente als Grundlage für alle weiteren Entwicklungsschritte.<br>

**3. Know-how-Aufbau und API-Verprobung mit Large Language Models**

* Durchführung erster Funktionstests mit verschiedenen LLM-Endpunkten (u. a. GPT-3.5) zur Beantwortung von Fachfragen.
* Ziel war das Verständnis für die Integration von Sprachmodellen und die Identifikation technischer Grenzen (z. B. Token-Limitierungen, Temperature-Einstellungen, System-Prompts).

**4. Implementierung eines Retrieval-Augmented Generation (RAG) Systems**

* Früh zeigte sich, dass reines Prompting nicht ausreicht, um spezifische Fachinhalte zuverlässig abzubilden.
* Zur Lösung wurde ein RAG-System implementiert, das mit einer Vektordatenbank (z. B. *Pinecone*) und Ähnlichkeitssuche (Cosine Similarity) arbeitete.

**5. Feedbackschleifen mit Stakeholdern und Lernbegleitungen**

* Durchführung erster Usability- und Qualitätstests der KI-generierten Antworten.
* Iteratives Vorgehen: Das Feedback floss direkt in die Optimierung technischer Parameter (Tokenanzahl, Temperature, Prompting-Strategie, Streaming-Optionen) und die Verfeinerung des RAG-Systems (u. a. durch besseres Chunking und Metadatenmanagement) ein.

**6. Pilotierung im Fachbereich Finanzbuchhaltung (WBS TRAINING AG)**

* Mangels externem KMU-Partner wurde der Prototyp im realen Weiterbildungskontext der WBS TRAINING AG getestet.
* **Erkenntnisse:** Die Benutzerfreundlichkeit wurde als hoch eingeschätzt. Jedoch zeigten sich Schwächen in der fachlichen Genauigkeit – insbesondere bei mathematisch geprägten Inhalten.
* **Herausforderung:** Balance zwischen eingebettetem Fachwissen (über RAG) und generativem Wissen des LLMs. Zudem war GPT-3.5 zum damaligen Zeitpunkt weniger leistungsfähig als spätere Modelle (z. B. GPT-4).

**7. Auswertung und Differenzierung der Einsatzebenen**

* Aus den Tests ließen sich drei Ebenen ableiten, auf denen ein KI-Tutor wirksam agieren kann:
  * **Makro-Ebene:** Auswahl und Empfehlung geeigneter Lerninhalte
  * **Meso-Ebene:** Fachliche Unterstützung bei konkreten Fragen
  * **Mikro-Ebene:** Methodisch-didaktische Begleitung, z. B. durch individuelles Feedback<br>

**8. Überführung in ein MVP und Pilotierung**

* Erkenntnisse aus Phase 1 wurden in eine konsolidierte Anforderungsliste überführt.
* Auf dieser Basis wurde ein nutzbares MVP in *Bubble* realisiert, das in einer weiteren Testphase mit Teilnehmenden (TN) evaluiert wurde.
* Die Ergebnisse dieser Pilotierung sind im separaten Bericht **„KI-Tutor\@WBS – Abschlussbericht“** dokumentiert.

***

**Fazit zu Phase 1**

* Die Phase des Rapid Prototypings erwies sich als entscheidend, um technische, didaktische und organisatorische Anforderungen frühzeitig zu identifizieren und gezielt weiterzuentwickeln.
* Der kombinierte Ansatz aus schnellen Iterationen und enger Stakeholder-Einbindung schuf eine belastbare Grundlage für die zielgerichtete Entwicklung des MVP in Phase 2.
