Μπορεί να φαίνεται δύσκολο έως αδύνατο να καταλάβει κανείς που τραβήχτηκε μια φωτογραφία, χωρίς να έχει άλλες πληροφορίες πέρα από την ίδια την εικόνα όμως οι ερευνητές της Google ακολούθησαν μια τελείως διαφορετική μέθοδο υπολογιστικής όρασης.
Τοποθέτησαν ένα πλέγμα πάνω σε ένα ψηφιακό κόσμο, χωρίζοντας έτσι την επιφάνεια του πλανήτη σε χιλιάδες τετραγωνάκια διαφορετικών μεγεθών, ανάλογα με το πόσες φωτογραφίες τραβιούνται στην πραγματικότητα (π.χ. σε μια πόλη όπως η Νέα Υόρκη τραβιούνται πολύ περισσότερες φωτογραφίες από ό,τι σε μια έρημο, άρα το τετραγωνάκι της μεγαλούπολης είναι μεγαλύτερο).
Στη συνέχεια, τροφοδότησαν το λογισμικό τους με εκατομμύρια αποθηκευμένες φωτογραφίες, που συνοδεύονταν από πληροφορίες γεωεντοπισμού. Ακολούθως, το πρόγραμμα, που διαθέτει νευρωνική νοημοσύνη, δημιούργησε συσχετίσεις και αντιστοιχίες ανάμεσα στα πίξελ των εικόνων και στα τα μέρη όπου τραβήχτηκαν οι φωτογραφίες.
Τελικά, η εφαρμογή δοκιμάσθηκε με 2,3 εκατομμύρια φωτογραφίες από το Flickr και όπως διαπιστώθηκε, κατάφερε να «πέσει μέσα» σε ποσοστό 48% όσον αφορά την ήπειρο που τραβήχτηκε μια φωτογραφία, 28,4% όσον αφορά τη συγκεκριμένη χώρα, 10,1% για την πόλη όπου έγινε η λήψη της φωτογραφίας και 3,6% για τον συγκεκριμένο δρόμο της πόλης.
Το επόμενο βήμα για τη βελτίωση της εφαρμογής μέχρι αυτή να κυκλοφορήσει θα είναι η ενσωμάτωση της ικανότητας να αναγνωρίζει αντικείμενα και άλλα γνωρίσματα (χρώμα δέρματος ανθρώπων, αρχιτεκτονική κτιρίων, είδος δέντρων, πινακίδες οδικής κυκλοφορίας κ.α.) και να τα συσχετίζει με συγκεκριμένες τοποθεσίες.