Dieser Datensatz verknüpft verschiedene Infos wie die Art zu tippen, das Gesicht oder den Aufenthaltsort. Dann errechnet das System, mit welcher Wahrscheinlichkeit das Gerät gerade von seinem rechtmäßigen Besitzer bedient wird. Neuere Smartphones besitzen genug Sensoren, um alle diese Daten zu erheben und auszuwerten.
Die unter der Bezeichnung Project Abacus entwickelte Lösung überwacht ständig das Verhalten des Nutzers und lernt diesen so besser kennen. Dafür werden Bewegungsmuster aufgezeichnet, die Stimme registriert, eventuell die Augen gescannt oder auch das Touch- und Tastverhalten analysiert (Geschwindigkeit, Druck, Fingergröße,…). Durch diese Daten soll sich ein Nutzer eindeutig identifizieren und später wieder erkennen lassen. Apps können dann auf die Trust API, die all diese Daten ständig sammelt, zugreifen und um eine Autorisierung bieten.
Da sich das Verhalten aber natürlich im Laufe der Zeit ändern kann, und jeder Menschen mal einen guten oder schlechten Tag hat und so vielleicht fester oder leichter auf das Display drückt, soll es einen Trust Score geben. Dieser berechnet ständig die Wahrscheinlichkeit, ob es sich um den Besitzer des Smartphones handelt oder nicht. Je höher der Score, desto wahrscheinlich befindet sich tatsächlich der Besitzer gerade vor dem Display. Ist der Score nicht ganz so hoch, könnten etwa Spiele auch weiterhin funktionieren, die Online-Banking App aber ihren Dienst versagen bzw. nach den Zugangsdaten fragen.
Tatächlich könnten die Entwickler hier einen Weg gefunden haben, der sich kaum knacken lässt. Da das Verhalten des Nutzers so gut wie gar nicht oder nur sehr sehr aufwendig nachgeahmt werden kann, haben Hobby-Hacker schlechte Karten. Möglich ist das natürlich nur durch die vielen Sensoren in den Smartphones, die ansonsten lange Zeit unnütze Daten sammeln würden – wie der Projektleiter selbst noch einmal verdeutlicht.