logo
Nachricht senden
Wuhan Homsh Technology Co.,Ltd.
produits
Nachrichten
Haus > Nachrichten >
Unternehmensnachrichten ungefähr Homsh's bahnbrechender Durchbruch: ViT+ArcFace erreicht 0,29 % EER bei der Iriserkennung
Veranstaltungen
Kontakte
Kontakte: Mr. Kelvin Yi
Kontakt jetzt
Verschicken Sie uns

Homsh's bahnbrechender Durchbruch: ViT+ArcFace erreicht 0,29 % EER bei der Iriserkennung

2026-04-01
Latest company news about Homsh's bahnbrechender Durchbruch: ViT+ArcFace erreicht 0,29 % EER bei der Iriserkennung

Homshs bahnbrechender Durchbruch: ViT+ArcFace

Die Genauigkeit der Iris-Erkennung erreicht das weltweit höchste Niveau
Mit einer gleichen Fehlerquote (Equal Error Rate, EER) von nur 0,29% und einer ROC-AUC, die sich der theoretischen Grenze nähert
Wir haben die Grenzen der Iris-Erkennung mit Vision Transformer neu definiert.
neueste Unternehmensnachrichten über Homsh's bahnbrechender Durchbruch: ViT+ArcFace erreicht 0,29 % EER bei der Iriserkennung  0
▲ Vision Transformer definiert das zugrunde liegende Paradigma der Iris Feature Extraction neu

I. Diesmal geht es nicht nur um Fortschritt, sondern um einen Paradigmenwechsel

Wenn man einen Ingenieur fragt, der seit zwei Jahrzehnten an der Iriserkennung arbeitet: "Was ist das schwierigste Problem, das Sie je angegangen sind?"
Er wird wahrscheinlich einen Moment innehalten und dann sagen: "Das Gummiblatt".
Seit John Daugman 1993 den IrisCode-Algorithmus vorgeschlagen hat, ist der Prozess des "Rubber Sheet Unwrapping" wie ein Zauber, der in die DNA der Iriserkennungssysteme weltweit eingraviert ist.Entpacken der kreisförmigen Iris in ein rechteckiges Bild, dann Texturen mit Gabor-Filtern extrahieren... Dieser Workflow wird seit drei Jahrzehnten verwendet, und niemand hat es in Frage gestellt.
Bis wir beschlossen, es wegzuwerfen.

II. Warum hat das Gummiblech aufgehört zu funktionieren?

Vision Transformer (kurz ViT) ist einer der beeindruckendsten technologischen Durchbrüche im Bereich Deep Learning in den letzten drei Jahren.verwendet den Selbstbewusstseinsmechanismus von Sprachmodellen, um die globale Struktur des Bildes zu verstehen, und übertrifft die konvolutionellen neuronalen Netze (CNN), die seit Jahren in mehreren visuellen Aufgaben dominiert haben.
Als wir zum ersten Mal versucht haben, ViT für die Iriserkennung anzuwenden, waren die ersten Ergebnisse enttäuschend: Die Equal Error Rate (EER) lag bei 4,65%, weit unter den Erwartungen.
Das Team identifizierte schnell die Ursache: Das Gummiblatt "flacht" die 64 × 512-Pixel-ringförmige Iris in ein Rechteck, das dann auf die 224 × 224-Eingabe skaliert wird, die von ViT ?? a 3 benötigt wird.5x vertikale Dehnung und 2.3x horizontale Kompression. Die natürliche Radial-/Umfangsstruktur der Iris war stark verzerrt.Es ist unmöglich für den Patch-Aufmerksamkeitsmechanismus von ViT, die Semantik innerhalb der.
Mit anderen Worten: Wir haben das klügste Modell falsch gefüttert.
Die Lösung klingt einfach, doch es erforderte den Mut, die Konvention zu brechen – das Gummiblech aufzugeben und auf ROI-Rundernte zu wechseln: mit der Mitte der Iris als Ursprung,Anbau einer Quadratfläche (2.5x den Radius) um die natürliche räumliche Symmetrie der Iris zu bewahren, sie dann direkt auf 224×224 zu vergrößern und in ViT einzuspeisen. Auf diese Weise kann jedes 16×16-Pflaster die authentische,nicht verzerrte Iristextur.

Schlüsselindikatoren: EER = 0,29%, ROC AUC = 0.9999

Die Änderung dieses einzelnen Vorbearbeitungsschrittes brachte einen großen Unterschied:
Die Lösung EER Anmerkungen
1. Runde: ViT + Gummiblech 4.65% Traditioneller Arbeitsablauf
Zweite Runde: CNN + Gummiblatt 2.80% Rückgratersatz mit begrenzter Verbesserung
Runde 3: ViT + ROI Ernte ~ 0,12%* Kritischer Durchbruch
Endversion: ViT-S/16 + ROI + Regularisierung 0.29% Produktionslösung

* Die Ergebnisse der dritten Runde unterliegen keiner strengen statistischen Überprüfung und enthalten eine optimistische Verzerrung.

Das endgültig veröffentlichte System verwendet ViT-S/16 (22,1M-Parameter) + ArcFace-Winkelmargenverlust, trainiert auf einer Fusion von 8 öffentlichen Datensätzen (insgesamt 4.480 Identitäten / 67.704 Bilder).Nach sorgfältiger statistischer Prüfung, sind die Ergebnisse wie folgt:

      EER = 0,29% (Gleiche Fehlerquote)

● 95% Konfidenzintervall: [0,21%, 0,40%] (200 Bootstrap-Wiederprobenrunden)

● ROC AUC = 0,9999 (fast perfekte Punktzahl)

● Durchschnittliche echte Ähnlichkeit der Paare: 0,8742 (hohe Konsistenz bei derselben Person)

● Durchschnittliche Ähnlichkeit zwischen Betrügerpaaren: 0,0450 (vollständige Trennung der Merkmale für verschiedene Individuen)

● Bei FRR=1%, FAR = 0,00% (Null Falscherkennung an Hochsicherheitsbetriebspunkten)

neueste Unternehmensnachrichten über Homsh's bahnbrechender Durchbruch: ViT+ArcFace erreicht 0,29 % EER bei der Iriserkennung  1
▲ ROC-Kurve (AUC=0,9999) und Verteilung der echten/betrügerischen Punktzahl

IV. Ausbildungsdaten: Nicht nur groß, sondern vielfältig

Diese Studie hat 8 öffentliche Datensätze zusammengeführt, darunter die beiden schwierigsten Szenarien in der Branche:

Zwillingsdaten (CASIA-Iris-Twins)

Iris-Daten von 200 Zwillingspaaren - auch mit nahezu identischen Genen sind die Iris-Texturen völlig unterschiedlich.

Szenarien ohne Einschränkung des sichtbaren Lichts (UBIRIS.v2)

518 Identitäten mit mehr als 11.000 Bildern, erfasst unter natürlichem Licht mit Bewegungsverschwommenheit, aus dem Fokus verzerrt,und Beleuchtungsvariationen dies ist der Datensatz, der den realen Einsatzszenarien am nächsten kommt.
Das Training wurde auf einem Apple Silicon M2 Ultra (Mac Studio) in ca. 12,3 Stunden (90 Trainingszeiten) abgeschlossen.mit einer Spitzenabschlusslatenz von nur ~ 35 ms (einschließlich ROI-Zuschneiden und Feature-Extraktion).

V. Horizontale Vergleiche mit Top-Industriearbeiten

Methode Rückgrat Vorverarbeitung EER
Daugman IrisCode Gabor Gummiblatt ~ 0,10% (Kontrollierte Umgebung)
UniqueNet (2016) Siamesisch CNN Kautschukblech 0.18%
IrisFormer (2023) ViT-B/16 Kautschukblech 0.22%
PolyIRIS (2021) Mehrfaches CNN Kautschukblech (Einheitlicher Datensatz)
Homsh ViT+ArcFace (Diese Veröffentlichung) ViT-S/16 ROI-Kulturierung 0.29% (8 Datensätze)

neueste Unternehmensnachrichten über Homsh's bahnbrechender Durchbruch: ViT+ArcFace erreicht 0,29 % EER bei der Iriserkennung  2
▲ Von 4,65% auf 0,29% EER: Der technologische Entwicklungsweg von vier Iterationsrunden

VI. Nächste Schritte

1.Unabhängige Beurteilung von Datenmengen
Blindtest auf dem IIT Delhi Datensatz, der nicht an der Ausbildung beteiligt ist, um die Fähigkeit zur Verallgemeinerung in der realen Welt zu überprüfen.
2.Integration der Lebensdetektion
Kombinieren Sie Multi-Frame-Flash-Antwort oder Texturanalyse, um sich gegen Fotowiedergabeangriffe zu schützen und ein komplettes Anti-Spoofing-System zu bauen.
3.Mittel- und Langstrecken-Iriserkennung
Einführung von Daten mit mittlerer Reichweite (3 m) zur Erweiterung auf Szenarien mit größeren Aufnahmeabständen - der nächste blaue Ozean für kommerzielle Umsetzung.
4.Leichtgewichtung und Einsatz am Rand
Destillation des Modells ViT-S/16 auf < 5M-Parameter zur Anpassung an ressourcenbeschränkte Edge-Geräte (NPU/FPGA).

Schlussfolgerung: Ein Kongreß seit 30 Jahren verdient eine Neubewertung

Daugmans Gummiblatt war die optimale Lösung seiner Zeit, aber die Essenz der Technologie ist folgende: Wenn bessere Werkzeuge entstehen, sollte das alte Paradigma beiseite geschoben werden.
Vision Transformer hat die Grundlogik der Bilderkennung verändert.Wir haben den richtigen Weg für ViT gefunden, um sein Potenzial in der Iris-Erkennung wirklich freizuschalten nicht, um ViT an den alten Workflow anzupassen, sondern ein neues Vorverarbeitungsparadigma zu entwickeln, das auf ViT zugeschnitten ist.
Ein EER von 0,29% ist nur eine Zahl, aber auch eine Erklärung:
      Iris-Erkennung ist in die Transformer-Ära eingetreten, und Homsh ist am Start.

Über Homsh

WuHan Homsh Technology Co., Ltd. (im Folgenden "HOMSH"), gegründet 2011,ist eines der wenigen High-Tech-Unternehmen der Welt, das unabhängige Rechte an geistigem Eigentum für Kern-Iris-Erkennung Algorithmen und Chips hältDer Kernalgorithmus PhaselirsTM und die intelligenten Chips der Qianxin-Serie FPGA/ASIC zur Iriserkennung wurden in der Finanzinansammlung, bei der Zollabfertigung, bei der Ausstellung von Regierungszertifikaten und bei der Verarbeitung von Dokumenten und Dokumenten weit verbreitet.Militärische Sicherheit und andere Bereiche.