Storage Training

Storage Training
Kontakt | Standorte

 Sie sind hier: Home >> Workshops >> Künstliche Intelligenz >> AI350 Vibe Coding - Software Development via Prompting

Finden:
Workshops 
  AWS 
  Backup & Recovery 
  Brocade 
  Cloud 
  Commvault 
  Datenbanken 
  DevOps 
  Fujitsu 
  Governance, Risk & Compliance  
  Hochverfügbarkeit 
  Industrie 4.0 
  Künstliche Intelligenz 
  Linux/Unix 
  Microsoft 
  NetApp 
  NetApp für Partner 
  Netzwerke 
  SAP 
  Security & Datenschutz 
  Softwareentwicklung 
  Storage Solutions 
  Veeam 
  Virtualisierung 
  Web-Seminare 
  Zertifizierungen 

Training: Künstliche Intelligenz

AI350 Vibe Coding für Entwickler

 

Kursbeschreibung (description):
Teilnehmer lernen im praxisorientierten Entwickler-Workshop, LLMs als Coding Copilot einzusetzen: mehr Tempo, ohne Codequalität, Sicherheit und Wartbarkeit zu verlieren. „Vibe Coding“: von Idee zu lauffähigem Code, verfeinern, Tests/Checks nachziehen. Patterns: Spec/Plan First, Diff Requests, Constraint Prompts, Test-First, Review und Hardening Prompts. Im Übungs-Case bauen/erweitern sie eine Komponente von Anforderung bis Doku, Code Review und Absicherung – mit persönlichem Werkzeugkasten.
Zielgruppe (target group):
Das Training AI350 Vibe Coding for Developers richtet sich an:
  • Entwickler (Backend, Frontend, Full Stack), Tech Leads, Senior Engineers
  • Entwicklerteams, die KI Assistenz im Alltag standardisieren möchten

Voraussetzungen (requirements):
Für die Teilnahme am Kurs AI350 Vibe Coding for Developers sind folgende Vorkenntnisse erforderlich:
  • Praktische Erfahrung in Softwareentwicklung
  • Vertrautheit mit Git und grundlegenden Test /Build Workflows
  • Kein KI Vorwissen notwendig (wird im Kurs aufgebaut)

Ziele (objectives):
  • KI als produktiven Pair Programmer einsetzen – kontrolliert und reproduzierbar
  • Anforderungen so formulieren, dass daraus korrekter Code entstehen kann (inkl. Edge Cases)
  • Wiederverwendbare Prompt und Workflow Patterns anwenden
  • Tests und Debugging mit KI beschleunigen, ohne Qualität zu verlieren
  • Refactoring/Review mit KI nutzen, um Wartbarkeit zu erhöhen
  • Sicherheits und Datenschutzrisiken in KI Workflows erkennen und vermeiden

Preis und Dauer (price and duration):
Dauer (duration): 1 Tag
Preis (price): 650,- Euro zzgl. MwSt.

Eine Druckansicht dieses Workshops finden Sie hier.
Termine (dates):
Dieser Workshop findet an folgenden Terminen statt:


Ort KursformatBeginnEndePlätze
Online 

Online
Karte
Online-Training24.04.2026 | 09:0024.04.2026 | 17:00
 
Jetzt anmelden
Online 

Online
Karte
Online-Training14.09.2026 | 09:0014.09.2026 | 17:00
 
Jetzt anmelden
Online 

Online
Karte
Online-Training06.11.2026 | 09:0006.11.2026 | 17:00
 
Jetzt anmelden

Inhalte (agenda):
  • Einstieg & Mindset
    • Was „Vibe Coding“ ist – und was nicht (Speed vs. Sorgfalt)
    • Stärken/Schwächen von LLMs im Dev Alltag (Realität statt Hype)
    • Qualitätsdefinition: „Done“ heißt lauffähig, getestet, reviewt, sicher

  • Prompt Patterns, die Entwickler wirklich brauchen
    • Spec First: Anforderungen, Akzeptanzkriterien, Edge Cases sauber formulieren
    • Plan First: Modell zuerst Architektur/Schritte vorschlagen lassen
    • Constraints & Guardrails: Tech Stack, Stil, Performance, Security, Kompatibilität festnageln
    • Diff /Patch Requests statt „Alles neu“: kontrollierte Änderungen am bestehenden Code
    • „Explain then Implement“ vs. „Implement then Explain“: wann welches Muster passt

  • Von Null auf Feature: Scaffolding & Implementierung mit KI
    • Struktur erzeugen (Module, Klassen, Dateien, Schnittstellen)
    • API Design & Datenmodelle: schnelle Vorschläge, dann harte Reviews
    • Iterationsschleife: kleine Inkremente, häufiger Kompilieren/Starten/Checken

  • Testen mit KI
    • Teststrategie: Unit/Integration, „Happy Path“ und Edge Cases
    • KI als Test-Ideengeber: bessere Abdeckung, gezielte Negativtests
    • Debug Loop: Fehlermeldungen/Logs sauber in Kontext geben, Hypothesen prüfen
    • Anti Pattern: Tests, die das Modell „grün promptet“ statt echte Qualität zu prüfen

  • Refactoring, Code Review & Maintainability
    • Refactoring Prompts (Lesbarkeit, Entkopplung, Wiederverwendung, Naming)
    • Review Prompts (Bugs, Race Conditions, Fehlerfälle, API Misuse, Performance)
    • Dokumentation & Kommentare
    • Team Konventionen: wie man KI Änderungen nachvollziehbar macht (Commits, PR Beschreibung)

  • Sicherheit, Datenschutz, IP – pragmatische Leitplanken
    • Was darf in Prompts (und was nicht): Secrets, Kundendaten, proprietärer Code
    • Umgang mit Abhängigkeiten: neue Libraries nur mit Begründung/Review
    • „Trust but verify“: Security Checks und Linting
    • Prompt Checkliste: Risiken erkennen (Injection Muster, unsichere Defaults, Input Validation)