zurück zum Glossar

Reinforcement Learning from Human Feedback (RLHF)

RLHF ist eine Trainingsmethode für KI-Modelle, bei der menschliche Bewerter KI-Antworten bewerten. Diese Bewertungen werden genutzt, um das Modell zu verbessern und besser auf menschliche Erwartungen auszurichten. ChatGPT und Claude wurden mit RLHF trainiert.

Autor

David Keiser

David Keiser bringt über 10 Jahre Erfahrung im Webdesign und der Suchmaschinenoptimierung mit und gilt als ausgewiesener Experte aus Recklinghausen.

Sie haben ein spannendes Projekt? Lassen Sie uns darüber sprechen.

Schicken Sie uns einfach eine unverbindliche Anfrage und wir melden uns innerhalb von 24 Stunden zurück.
100% unverbindlich & persönlich.