Online Betrug verhindern

Warum maschinelles Lernen nicht die Lösung gegen Online-Betrug ist.
Das maschinelle Lernen hat sich als das beste Instrument zur Bekämpfung von Betrug in großem Maßstab herausgestellt, und Händler mit den richtigen Instinkten wenden sich zunehmend an es für Lösungen. Jedoch schauen zu viele Händler zum maschinellen Lernen als Allheilmittel für Betrug, und einige Verkäufer tanken unverantwortlich diesen Glauben und befürworten einen kompletten Ersatz der erfahrenen Betrugsexperten zugunsten der Maschine.

Die Wahrheit ist, dass maschinelles Lernen, wenn es naiv und dogmatisch angewendet wird, nicht nur sein Potenzial verfehlen wird, sondern auch viel schlechter abschneiden wird als traditionelle Betrugspräventionstechniken.

Anyoption Betrug ausschließen

Der folgende Artikel, geschrieben von Mitbegründer Michael Liberty, erschien ursprünglich am 17. Februar 2016 auf Betrug.

Nutzung der Vergangenheit zur Vorhersage der Zukunft
Maschinelles Lernen ist, vereinfacht ausgedrückt, die Praxis, Algorithmen zu verwenden, die ein „Modell“ aus früheren Daten lernen und damit Vorhersagen über zukünftige Ereignisse treffen. Sie geht implizit davon aus, dass sich die Muster der Vergangenheit in der Zukunft wiederholen werden.

Eine gängige Anwendung sind Kaufempfehlungen, wie sie beispielsweise bei Amazon zu finden sind, die von Modellen stammen, die gelernt haben, vorherzusagen, was Kunden auf der Grundlage dessen kaufen könnten, was ähnliche Käufer gekauft haben. Die Effektivität des maschinellen Lernens in diesem und anderen Kontexten, wie z.B. der Websuche, liefert starke Beweise dafür, dass es ein wertvolles Werkzeug im datenreichen Bereich der Betrugsbekämpfung sein kann.

Im Gegensatz zu den Kunden, die die Kaufempfehlungen von Amazon durchsuchen, vermeiden Betrüger jedoch aktiv, dass sie vorhersehbar sind. Sie versuchen ständig, Erkennungsbemühungen zu umgehen, die ihr bisheriges Verhalten als Bezugspunkt verwenden.

In diesem Szenario stellen Sie sich ein maschinell erlerntes Modell als einen komplizierten Kampfplan vor, der aus Millionen von vergangenen Kämpfen entwickelt wurde. Dieser Plan hilft dir, dich vor Taktiken zu schützen, die der Feind bereits angewandt hat, aber was ist, wenn er eine neue Taktik einführt?

Ein sich ständig veränderndes Schlachtfeld
Die Gefahr der „Vergangenheit sagt die Zukunft voraus“ sollte offensichtlich sein. Dennoch bieten einige Unternehmen zur Betrugsprävention maschinelles Lernen als Silberkugellösung an, die wenig Fachwissen oder menschliche Eingriffe erfordert.

Lassen Sie uns die nutzbaren Schwächen des Maschinenlernens etwas konkreter machen. Ein maschinell erlerntes Modell, das mit modernsten Algorithmen auf massiven Bilddatenbanken trainiert wurde, sagte mit großem Vertrauen, dass dieses Bild ein Königspinguin ist.

eingefügtes Bild 0Mit einem ähnlich hohen Maß an Vertrauen ist dies ein Gürteltier:

eingefügtes Bild 0-1Forscher haben die fraglichen Modelle ausgetrickst und sind zu den obigen Bildern gekommen, indem sie mit einem Zufallsbild begonnen und es langsam verändert haben und beobachtet haben, wie das Modell reagiert hat. Sie wiederholten den Prozess mit dem neuen Bild, bis sie zu einem Bild kamen, das das Modell mit 99 Prozent Sicherheit klassifiziert hatte.

Die heutigen Betrüger sind ebenso ausgeklügelt. Sie werden ihre Techniken endlos verfeinern, und ein Datenwissenschaftler, der das „perfekte“ Modell in die Schlacht trägt, wird sich schnell in der nicht beneidenswerten Position befinden, ein Messer in eine Schießerei gebracht zu haben.

Ohne die Geschichte und den Kontext leidet das Modell.
Das Hauptziel des maschinellen Lernens ist es, Modelle zu entwickeln, die eine prädiktive Leistung in einer Test- oder Live-Umgebung ähnlich wie in der Trainingsumgebung zeigen. Ein Modell, das so gut funktioniert, ist „robust“. Einfach ausgedrückt, ist der beste Weg, die Robustheit eines Modells sicherzustellen, dass ein Domänenexperte die Kohärenz der „Geschichte“ eines Modells untersucht, die durch die Variablen repräsentiert wird, auf denen es basiert.

Wenn sich Betrüger von früheren Mustern entfernen, von denen sie glauben, dass das Modell als betrügerisch identifiziert wurde, wird ein gutes Modell nicht sofort auseinander fallen. Die Verhinderung von Zerfall in den Vorhersage- und Präventionsbemühungen des Modells hängt alles davon ab, ob die implizite Geschichte hinter dem Modell und seinen Variablen stabil ist, d.h. ob sie mit einem niedrigen Verständnis dessen, was die Betrüger tun, ineinandergreifen.

Wenn das Modell darauf trainiert wurde, korrekte, aber grundsätzlich schwache Zusammenhänge zu finden, ist das Modell gegenüber einem Gegner, der sich schnell anpassen kann, nutzlos.

Betrachten Sie beispielsweise eine flache Erklärung, die häufig in Kreisen der Betrugsbekämpfung abgegeben wird: Delaware ist der höchste Betrugsstaat Amerikas. Ja, dieses Delaware. Ein naiver Modellierer, ohne die zugrundeliegende Ursache für den Anspruch zu erforschen und zu verstehen, würde diese Erkenntnis nutzen und eine „fraud rate by state“-Eingabe in sein Modell einbringen, vorausgesetzt, dass das Modell von dort aus weitermachen kann und Aufträge aus Delaware als riskant markiert.

Dieses Modell kann für eine Weile ziemlich gut funktionieren, aber sobald ein Betrüger wechselt, wird das Modell nutzlos.

Schließlich ist die zugrunde liegende Geschichte, die durch Expertenanalyse identifiziert wurde, dass Delaware ein Hotspot für den Wiederversand ist. Hätte ein Domain-Experte zum Modelltraining beigetragen, hätte er oder sie den Kontext verstehen und bessere, stabilere Variablen empfehlen können, die auf das Problem des Wiederversands hinweisen, anstatt alle Bestellungen aus Delaware als betrügerische und frustrierende Kunden zu kennzeichnen.

Menschen