Londons Polizei setzt auf artificial intelligence bei der Fahndung von Pädophilen im Internet, doch noch verwechselt die verwendete Fahndungssoftware Saharafotos mit nackter Haut. So ganz scheint die Bilderkennungssoftware trotz künstlicher Intelligenz noch nicht in der Lage zu sein, die Fahndung optimal zu unterstützen, Saharasand und Nackte werden von den Algorithmen gleich behandelt.
Bei anderen fahndungsrelevanten Bildinhalten wie Waffen, Drogen oder Geld schlägt sich die Software, wie die britische Tageszeitung "The Telegraph" meldet, inzwischen recht gut, doch die Zuverlässigkeit bei Hauttönen lässt zu wünschen übrig. Da viele Menschen weltweit Sahara-Fotos etwa als Bildschirmschoner verwenden oder Urlaubsfotos von Sandstränden oder Dünen auf ihren Rechnern haben, kommt es zu ziemlich vielen Fehlinterpretationen.
Damit wird einmal mehr deutlich, dass die Interpretation von Bildinformationen durch den Menschen sehr Komplex ist und nicht so einfach durch Prozessoren ersetzt werden kann. Vermutlich ist es nur eine Frage der Zeit, bis die Programme auch Saharasand eindeutig erkennen können.