Die heutige Forschung im Bereich des maschinellen Lernens konzentriert sich oft auf die Schätzung von Unsicherheiten, damit die Benutzer besser verstehen können, wie zuverlässig die Entscheidungen des Modells sind. Diese Bewertung ist besonders wichtig in Situationen, in denen viel auf dem Spiel steht, wie zum Beispiel bei der Erkennung von Krankheiten in medizinischen Bildern oder bei der Filterung von Bewerbungen.
Unsicherheitsschätzungen sind jedoch nur dann nützlich, wenn sie genau sind. Wenn ein Modell behauptet, zu 49 Prozent sicher zu sein, dass ein medizinisches Bild einen Pleuraerguss zeigt, dann sollte dieses Modell in 49 Prozent der Fälle richtig liegen.
Forscher am MIT haben einen neuen Ansatz zur Verbesserung der Unsicherheitsschätzungen in maschinellen Lernmodellen entwickelt. Ihre Methode generiert genauere Unsicherheitsschätzungen im Vergleich zu anderen Techniken und tut dies auf effizientere Weise.
Darüber hinaus ist diese Technik skalierbar und kann auf große Deep-Learning-Modelle angewendet werden, die zunehmend im Gesundheitswesen und in anderen Situationen verwendet werden, in denen Sicherheit von entscheidender Bedeutung ist.
Diese Technik kann Endbenutzern, von denen viele keine Expertise im maschinellen Lernen haben, bessere Informationen zur Bewertung der Zuverlässigkeit des Modells und zur Entscheidung über dessen Anwendung bei bestimmten Aufgaben liefern.
Quantifizierung der Unsicherheit
Methoden zur Quantifizierung von Unsicherheit erfordern oft komplexe statistische Berechnungen, die schwer auf Modelle des maschinellen Lernens mit Millionen von Parametern skalierbar sind. Außerdem erfordern diese Methoden oft Annahmen über das Modell und die für dessen Training verwendeten Daten.
Die MIT-Forscher haben dieses Problem anders angegangen. Sie nutzten das Prinzip der minimalen Beschreibungslänge (MDL), das keine Annahmen erfordert, die die Genauigkeit anderer Methoden einschränken könnten. MDL wird verwendet, um die Unsicherheit für Testpunkte, die das Modell kennzeichnen muss, besser zu quantifizieren und zu kalibrieren.
Die von den Forschern entwickelte Technik, bekannt als IF-COMP, macht MDL schnell genug für den Einsatz mit großen Deep-Learning-Modellen, die in vielen realen Umgebungen eingesetzt werden.
MDL beinhaltet die Berücksichtigung aller möglichen Labels, die das Modell für einen bestimmten Testpunkt vergeben kann. Wenn es viele alternative Labels für diesen Punkt gibt, die gut passen, sollte das Vertrauen des Modells in das ausgewählte Label proportional verringert werden.
"Eine Möglichkeit, zu verstehen, wie sicher ein Modell ist, besteht darin, ihm einige kontrafaktische Informationen zu geben und zu sehen, wie bereit es ist, seinen Glauben zu ändern", sagt Nathan Ng, Hauptautor der Studie und Doktorand an der Universität Toronto, der auch Gaststudent am MIT ist.
Betrachten wir zum Beispiel ein Modell, das behauptet, ein medizinisches Bild zeige einen Pleuraerguss. Wenn Forscher dem Modell sagen, dass das Bild ein Ödem zeigt und das Modell bereit ist, seinen Glauben zu ändern, sollte das Modell weniger sicher in seiner ursprünglichen Entscheidung sein.
Mit MDL sollte ein Modell, wenn es sicher ist, wenn es einen Datenpunkt kennzeichnet, einen sehr kurzen Code verwenden, um diesen Punkt zu beschreiben. Wenn es sich nicht sicher ist, weil der Punkt viele andere Labels haben kann, verwendet es einen längeren Code, um diese Möglichkeiten abzudecken.
Die Menge des Codes, die verwendet wird, um einen Datenpunkt zu kennzeichnen, wird als stochastische Komplexität der Daten bezeichnet. Wenn Forscher das Modell fragen, wie bereit es ist, seinen Glauben an einen Datenpunkt angesichts gegenteiliger Beweise zu ändern, sollte die stochastische Komplexität der Daten abnehmen, wenn das Modell sicher ist.
Das Testen jedes Datenpunkts mit MDL würde jedoch eine enorme Menge an Rechenleistung erfordern.
Beschleunigung des Prozesses
Mit IF-COMP haben die Forscher eine Approximationstechnik entwickelt, die die stochastische Komplexität der Daten genau abschätzen kann, indem eine spezielle Funktion, die sogenannte Einflussfunktion, verwendet wird. Sie verwendeten auch eine statistische Technik namens Temperaturskalierung, die die Kalibrierung der Modellausgaben verbessert. Diese Kombination aus Einflussfunktionen und Temperaturskalierung ermöglicht hochwertige Approximationen der stochastischen Komplexität der Daten.
Am Ende kann IF-COMP effizient gut kalibrierte Unsicherheitsschätzungen erzeugen, die das tatsächliche Vertrauen des Modells widerspiegeln. Die Technik kann auch feststellen, ob das Modell bestimmte Datenpunkte falsch gekennzeichnet hat oder erkennen, welche Datenpunkte Ausreißer sind.
Die Forscher testeten ihr System bei diesen drei Aufgaben und stellten fest, dass es schneller und genauer war als andere Methoden.
"Es ist wirklich wichtig, eine gewisse Sicherheit zu haben, dass das Modell gut kalibriert ist, und es besteht ein zunehmender Bedarf zu erkennen, wann eine bestimmte Vorhersage nicht ganz korrekt ist. Überprüfungswerkzeuge werden zunehmend notwendig bei maschinellen Lernproblemen, da wir große Mengen unüberprüfter Daten verwenden, um Modelle zu erstellen, die auf Probleme angewendet werden, mit denen Menschen konfrontiert sind", sagt Marzyeh Ghassemi, Senior-Autorin der Studie.
IF-COMP ist modellagnostisch, das heißt, es kann genaue Unsicherheitsschätzungen für viele Arten von maschinellen Lernmodellen liefern. Dies könnte eine breitere Anwendung in realen Umgebungen ermöglichen, was letztendlich mehr Praktikern helfen würde, bessere Entscheidungen zu treffen.
"Die Leute müssen verstehen, dass diese Systeme sehr fehleranfällig sind und Schlussfolgerungen auf der Grundlage unzureichender Daten ziehen können. Das Modell mag sehr sicher erscheinen, aber es gibt viele verschiedene Dinge, an die es angesichts gegenteiliger Beweise bereit ist zu glauben", sagt Ng.
In Zukunft planen die Forscher, ihren Ansatz auf große Sprachmodelle anzuwenden und andere potenzielle Anwendungen des Prinzips der minimalen Beschreibungslänge zu untersuchen.
Quelle: Massachusetts Institute of Technology
Erstellungszeitpunkt: 17 Juli, 2024
Hinweis für unsere Leser:
Das Portal Karlobag.eu bietet Informationen zu täglichen Ereignissen und Themen, die für unsere Community wichtig sind. Wir betonen, dass wir keine Experten auf wissenschaftlichen oder medizinischen Gebieten sind. Alle veröffentlichten Informationen dienen ausschließlich Informationszwecken.
Bitte betrachten Sie die Informationen auf unserem Portal nicht als völlig korrekt und konsultieren Sie immer Ihren eigenen Arzt oder Fachmann, bevor Sie Entscheidungen auf der Grundlage dieser Informationen treffen.
Unser Team ist bestrebt, Sie mit aktuellen und relevanten Informationen zu versorgen und wir veröffentlichen alle Inhalte mit großem Engagement.
Wir laden Sie ein, Ihre Geschichten aus Karlobag mit uns zu teilen!
Ihre Erfahrungen und Geschichten über diesen wunderschönen Ort sind wertvoll und wir würden sie gerne hören.
Sie können sie gerne senden an uns unter karlobag@karlobag.eu.
Ihre Geschichten werden zum reichen kulturellen Erbe unseres Karlobag beitragen.
Vielen Dank, dass Sie Ihre Erinnerungen mit uns teilen!