Title:
Abstandsbild-Erfassungsvorrichtung und Abstandsbild-Erfassungsverfahren
Document Type and Number:
Kind Code:
T5

Abstract:

Es werden eine Abstandsbild-Erfassungsvorrichtung und ein Abstandsbild-Erfassungsverfahren offenbart, die in der Lage sind, ein Abstandsbild auf der Basis eines von einer Hostvorrichtung projizierten ersten Musters selbst in einem Fall, in dem Muster von strukturiertem Licht mit der gleichen Form gleichzeitig von der Hostvorrichtung und einer weiteren Vorrichtung projiziert werden, mit zufriedenstellender Genauigkeit zu erfassen. Eine Abstandsbild-Erfassungsvorrichtung (10) enthält eine Projektionseinheit (12), die ein Muster von strukturiertem Licht projiziert, das in einer zweidimensionalen Weise in Bezug auf ein Objekt innerhalb eines Abstandsmessbereichs verteilt wird, eine Lichtmodulationseinheit (22), die eine Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Musters, das von der Projektionseinheit projiziert wird, mit einem Code moduliert, eine Abbildungseinheit (14), die parallel zu und um eine Grundlinienlänge von der Projektionseinheit (12) versetzt bereitgestellt ist, eine Abbildung synchronisiert mit einer Projektionszeitspanne und einer Nicht-Projektionszeitspanne des ersten Musters durchführt und ein erstes aufgenommenes Bild, das in der Projektionszeitspanne des ersten Musters aufgenommen wird, und ein zweites aufgenommenes Bild, das in der Nicht-Projektionszeitspanne des ersten Musters aufgenommen wird, erzeugt, eine Differenzbild-Erzeugungseinheit (20D), die ein Differenzbild des ersten aufgenommenen Bildes und des zweiten aufgenommenen Bildes erzeugt, eine Musterextraktionseinheit (20A), die das erste Muster aus dem Differenzbild extrahiert, und eine Abstandsbild-Erfassungseinheit (20B), die ein Abstandsbild, das einen Abstand eines Objekts innerhalb des Abstandsmessbereichs angibt, basierend auf dem ersten Muster, das von der Musterextraktionseinheit (20A) extrahiert wird, erfasst.





Inventors:
Takao, Hiroaki (Saitama-shi, JP)
Misawa, Takeshi (Saitama-shi, JP)
Kamiya, Takeshi (Saitama-shi, JP)
Fujita, Koudai (Saitama-shi, JP)
Masuda, Tomonori (Saitama-shi, JP)
Application Number:
DE112015006244T
Publication Date:
11/16/2017
Filing Date:
11/11/2015
Assignee:
FUJIFILM Corporation (Tokyo, JP)
International Classes:
G01C3/06; G01S7/495; G01S17/89
Attorney, Agent or Firm:
Dehns Germany, 80333, München, DE
Claims:
1. Abstandsbild-Erfassungsvorrichtung, die enthält:
eine Projektionseinheit, die ein erstes Muster von strukturiertem Licht projiziert, das in einer zweidimensionalen Weise in Bezug auf ein Objekt innerhalb eines Abstandsmessbereichs verteilt ist;
eine Lichtmodulationseinheit, die eine Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Musters, das von der Projektionseinheit projiziert wird, mit einem Code moduliert;
eine Abbildungseinheit, die parallel zu und um eine Grundlinienlänge von der Projektionseinheit versetzt bereitgestellt ist, eine Abbildung synchronisiert mit einer Projektionszeitspanne und einer Nicht-Projektionszeitspanne des ersten Musters durchführt und mehrere aufgenommene Bilder, die das erste Muster enthalten, das von dem Objekt reflektiert wird, erzeugt, wobei die mehreren aufgenommenen Bilder ein erstes aufgenommenes Bild, das in der Projektionszeitspanne des ersten Musters aufgenommen wird, und ein zweites aufgenommenes Bild, das in der Nicht-Projektionszeitspanne des ersten Musters aufgenommen wird, enthalten;
eine Differenzbild-Erzeugungseinheit, die ein Differenzbild des ersten aufgenommenen Bildes, das in der Projektionszeitspanne aufgenommen wird, und des zweiten aufgenommenen Bildes, das in der Nicht-Projektionszeitspanne aufgenommen wird, erzeugt;
eine Musterextraktionseinheit, die das erste Muster aus dem Differenzbild extrahiert;
eine Abstandsbild-Erfassungseinheit, die ein Abstandsbild, das einen Abstand des Objekts innerhalb des Abstandsmessbereichs angibt, basierend auf dem ersten Muster, das von der Musterextraktionseinheit extrahiert wird, erfasst,
eine Bestimmungseinheit, die bestimmt, ob ein zweites Muster von einer weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird oder nicht,
eine Bakeninformations-Empfangseinheit, die von der weiteren Abstandsbild-Erfassungsvorrichtung gesendete Bakeninformationen empfängt, wobei die Bakeninformationen angeben, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird,
wobei die Lichtmodulationseinheit in einem Fall, in dem die Bestimmungseinheit bestimmt, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird, eine Modulation an dem ersten Muster, das von der Projektionseinheit projiziert wird, durchführt,
wobei die Bestimmungseinheit in einem Fall, in dem die Bakeninformations-Empfangseinheit die Bakeninformationen empfängt, bestimmt, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird.

2. Abstandsbild-Erfassungsvorrichtung nach Anspruch 1, wobei die Lichtmodulationseinheit die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Musters mit einem zufälligen Code moduliert.

3. Abstandsbild-Erfassungsvorrichtung, die enthält:
eine Projektionseinheit, die ein erstes Muster von strukturiertem Licht projiziert, das in einer zweidimensionalen Weise in Bezug auf ein Objekt innerhalb eines Abstandsmessbereichs verteilt ist;
eine Lichtmodulationseinheit, die eine Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Musters, das von der Projektionseinheit projiziert wird, mit einem Code moduliert;
eine Abbildungseinheit, die parallel zu und um eine Grundlinienlänge von der Projektionseinheit versetzt bereitgestellt ist, eine Abbildung synchronisiert mit einer Projektionszeitspanne und einer Nicht-Projektionszeitspanne des ersten Musters durchführt und mehrere aufgenommene Bilder, die das erste Muster enthalten, das von dem Objekt reflektiert wird, erzeugt, wobei die mehreren aufgenommenen Bilder ein erstes aufgenommenes Bild, das in der Projektionszeitspanne des ersten Musters aufgenommen wird, und ein zweites aufgenommenes Bild, das in der Nicht-Projektionszeitspanne des ersten Musters aufgenommen wird, enthalten;
eine Differenzbild-Erzeugungseinheit, die ein Differenzbild des ersten aufgenommenen Bildes, das in der Projektionszeitspanne aufgenommen wird, und des zweiten aufgenommenen Bildes, das in der Nicht-Projektionszeitspanne aufgenommen wird, erzeugt;
eine Musterextraktionseinheit, die das erste Muster aus dem Differenzbild extrahiert;
eine Abstandsbild-Erfassungseinheit, die ein Abstandsbild, das einen Abstand des Objekts innerhalb des Abstandsmessbereichs angibt, basierend auf dem ersten Muster, das von der Musterextraktionseinheit extrahiert wird, erfasst,
eine Bestimmungseinheit, die bestimmt, ob ein zweites Muster von einer weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird oder nicht,
wobei die Lichtmodulationseinheit in einem Fall, in dem die Bestimmungseinheit bestimmt, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird, eine Modulation an dem ersten Muster, das von der Projektionseinheit projiziert wird, durchführt,
wobei das erste Muster und das zweite Muster Punktmuster sind und
wobei die Bestimmungseinheit dann, wenn die Anzahl von Punkten eines Punktmusters, das aus dem von der Abbildungseinheit aufgenommenen Bild detektiert wird, die Anzahl von Punkten des von der Projektionseinheit projizierten ersten Musters übersteigt, bestimmt, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird.

4. Abstandsbild-Erfassungsvorrichtung nach einem der Ansprüche 1 oder 2,
wobei die Abbildungseinheit eine Belichtung in einer Belichtungszeitspanne, die einer Bildrate des Abstandsbildes entspricht, ausführt und
die Lichtmodulationseinheit die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Musters synchronisiert mit der Start- und Endzeitvorgabe der Belichtungszeitspanne der Abbildungseinheit moduliert.

5. Abstandsbild-Erfassungsverfahren, das umfasst:
einen Schritt eines Modulierens einer Schaltzeitvorgabe von Projektion und Nicht-Projektion eines ersten Musters von strukturiertem Licht, das in zweidimensionaler Weise in Bezug auf ein Objekt innerhalb eines Abstandsmessbereichs verteilt ist, mit einem Code und eines Veranlassens, dass eine Projektionseinheit das erste Muster projiziert;
einen Schritt eines Durchführens einer Abbildung synchronisiert mit einer Projektionszeitspanne und einer Nicht-Projektionszeitspanne des ersten Musters mit einer Abbildungseinheit, die parallel zu und um eine Grundlinienlänge von der Projektionseinheit versetzt bereitgestellt ist, und eines Erzeugens mehrerer aufgenommener Bilder, die das erste Muster enthalten, das von dem Objekt reflektiert wird, wobei die mehreren aufgenommenen Bilder ein erstes aufgenommenes Bild, das in der Projektionszeitspanne des ersten Musters aufgenommen wird, und ein zweites aufgenommenes Bild, das in der Nicht-Projektionszeitspanne des ersten Musters aufgenommen wird, enthalten;
einen Schritt eines Erzeugens eines Differenzbildes des ersten aufgenommenen Bildes, das in der Projektionszeitspanne aufgenommen wird, und des zweiten aufgenommenen Bildes, das in der Nicht-Projektionszeitspanne erfasst wird;
einen Schritt eines Extrahierens des ersten Musters aus dem Differenzbild; und
einen Schritt eines Erfassens eines Abstandsbildes, das einen Abstand des Objekts innerhalb des Abstandsmessbereichs angibt, auf der Basis des extrahierten ersten Musters,
einen Schritt des Bestimmens, ob ein zweites Muster von einer weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird oder nicht;
einen Schritt des Empfangs von Bakeninformation, die von der weiteren Abstandsbild-Erfassungsvorrichtung gesendet wird, wobei die Bakeninformationen angeben, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird,
in einem Fall, in dem bestimmt wird, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird, einen Schritt des Durchführens einer Modulation an dem ersten Muster, das von der Projektionseinheit projiziert wird; und
in einem Fall, in dem die Bakeninformationen empfangen werden, einen Schritt des Bestimmens, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird.

6. Abstandsbild-Erfassungsverfahren, das umfasst:
einen Schritt eines Modulierens einer Schaltzeitvorgabe von Projektion und Nicht-Projektion eines ersten Musters von strukturiertem Licht, das in zweidimensionaler Weise in Bezug auf ein Objekt innerhalb eines Abstandsmessbereichs verteilt ist, mit einem Code und eines Veranlassens, dass eine Projektionseinheit das erste Muster projiziert;
einen Schritt eines Durchführens einer Abbildung synchronisiert mit einer Projektionszeitspanne und einer Nicht-Projektionszeitspanne des ersten Musters mit einer Abbildungseinheit, die parallel zu und um eine Grundlinienlänge von der Projektionseinheit versetzt bereitgestellt ist, und eines Erzeugens mehrerer aufgenommener Bilder, die das erste Muster enthalten, das von dem Objekt reflektiert wird, wobei die mehreren aufgenommenen Bilder ein erstes aufgenommenes Bild, das in der Projektionszeitspanne des ersten Musters aufgenommen wird, und ein zweites aufgenommenes Bild, das in der Nicht-Projektionszeitspanne des ersten Musters aufgenommen wird, enthalten;
einen Schritt eines Erzeugens eines Differenzbildes des ersten aufgenommenen Bildes, das in der Projektionszeitspanne aufgenommen wird, und des zweiten aufgenommenen Bildes, das in der Nicht-Projektionszeitspanne erfasst wird;
einen Schritt eines Extrahierens des ersten Musters aus dem Differenzbild; und
einen Schritt eines Erfassens eines Abstandsbildes, das einen Abstand des Objekts innerhalb des Abstandsmessbereichs angibt, auf der Basis des extrahierten ersten Musters,
einen Schritt des Bestimmens, ob ein zweites Muster von einer weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird oder nicht;
in einem Fall, in dem bestimmt wird, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird, einen Schritt des Durchführens einer Modulation an dem ersten Muster, das von der Projektionseinheit projiziert wird, wobei das erste Muster und das zweite Muster Punktmuster sind; und
wenn die Anzahl von Punkten eines Punktmusters, das aus dem von der Abbildungseinheit aufgenommenen Bild detektiert wird, das von der Abbildungseinheit erfasst wird, die Anzahl von Punkten des von der Projektionseinheit projizierten ersten Musters übersteigt, einen Schritt des Bestimmens, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird.

Description:
Hintergrund der Erfindung 1. Gebiet der Erfindung

Die vorliegende Erfindung bezieht sich auf eine Abstandsbild-Erfassungsvorrichtung und ein Abstandsbild-Erfassungsverfahren und insbesondere auf eine Technik zum Projizieren von strukturiertem Licht, das in einer zweidimensionalen Weise in Bezug auf ein Objekt innerhalb eines Abstandsmessbereichs verteilt ist, und Erfassen eines Abstandsbildes, das einen Abstand des Objekts angibt.

2. Beschreibung des Standes der Technik

Bisher projiziert diese Art von Abstandsbild-Erfassungsvorrichtung ein Muster (Punktmuster) von strukturiertem Licht, das zweidimensional in Bezug auf ein Objekt innerhalb eines Abstandsmessbereichs verteilt ist, aus einer Projektionseinheit, bildet das Objekt mit einer Abbildungseinheit ab und erfasst ein erstes Bild, das das von dem Objekt reflektierte Punktmuster enthält. Ferner bildet die Abstandsbild-Erfassungsvorrichtung das Objekt mit der Abbildungseinheit ab, ohne ein Punktmuster aus der Projektionseinheit zu projizieren, und erfasst ein zweites Bild, das ein Hintergrund des Punktmusters sein soll, subtrahiert das zweite Bild von dem ersten Bild und berechnet und erfasst das Abstandsbild (dreidimensionale Abstandsinformationen) auf der Basis eines Subtraktionsergebnisses unter Verwendung eines Triangulationsverfahrens (JP2011-169701A).

JP2014-115107A beschreibt, dass eine Abstandsmessvorrichtung mehrere Projektionseinheiten enthält und mehrere Projektionseinheiten zum Durchführen einer Abbildung nacheinander der Reihe nach eine Projektion ausführen, um ein eine Abbildung durchzuführen, oder dass dafür gesorgt wird, dass Musterlicht, das von mehreren Projektionseinheiten projiziert wird, unterschiedliche Farben aufweist, so dass Muster, die von mehreren Projektionseinheiten projiziert werden, in einer Abbildungseinheit nicht verwechselt werden.

Zusammenfassung der Erfindung

Bei der in JP2011-169701A beschriebenen Abstandsbild-Erfassungsvorrichtung werden in einem Fall, in dem eine Abstandsmessung an demselben Objekt gleichzeitig mit mehreren Abstandsbild-Erfassungsvorrichtungen durchgeführt wird, Punktmuster, die jeweils von mehreren Abstandsbild-Erfassungsvorrichtungen projiziert werden, gemischt, und es besteht ein Problem dahingehend, dass das Abstandsbild nicht erfasst werden kann. Es gibt jedoch einen Fall, in dem eine Abstandsmessung eines Objekts, das eine solche Größe aufweist, dass ein Abstandsbild nicht mit einer Abstandsbild-Erfassungsvorrichtung erfasst werden kann, gleichzeitig mit mehreren Abstandsbild-Erfassungsvorrichtungen durchgeführt werden sollte, oder einen Fall, in dem ein Anwender selbst die Abstandsbild-Erfassungsvorrichtung verwendet, ohne zu wissen, dass eine andere Person die Abstandsbild-Erfassungsvorrichtung verwendet. Insbesondere in einem Fall, in dem ein Abstandsbild für andere Zwecke verwendet wird, ohne dass dies direkt angezeigt wird, oder dergleichen, und dem Anwender selbst nicht klar ist, dass die Abstandsbilderfassung durchgeführt wird, besteht eine hohe Wahrscheinlichkeit, dass die Abstandsbild-Erfassungsvorrichtung gleichzeitig an demselben Ort verwendet wird.

Die in JP2014-115107A beschriebene Technik ist eine Technik zum Vermeiden einer Verwechslung zwischen Mustern in der Abbildungseinheit einer Vorrichtung für einen Fall, in dem mehrere Projektionseinheiten in einer Vorrichtung bereitgestellt sind, und es ist schwierig, sie auf einen Fall anzuwenden, in dem Muster von mehreren Projektionseinheiten, die jeweils in mehreren Vorrichtungen bereitgestellt sind, projiziert werden.

Der Grund ist wie folgt: Wie in JP2014-115107A beschrieben wird in einem Fall, in dem mehrere Projektionseinheiten in einer Vorrichtung vorgesehen sind, eine Projektionszeitvorgabe oder eine Wellenlängenbandbreite von einer zentralen Verarbeitungseinheit (CPU), die eine integrale Steuerung in einer Vorrichtung durchführt, für jede von mehreren Projektionseinheiten angeordnet, wodurch es möglich ist, eine Steuerung der Zeitaufteilung oder der Wellenlängenbandbreitenaufteilung (als Frequenzaufteilung bezeichnet) auf mehrere Projektionseinheiten leicht durchzuführen. Unterdessen kann in einem Fall, in dem eine Projektionseinheit in jeder von mehreren unabhängigen Vorrichtungen bereitgestellt ist, die Projektionszeitvorgabe oder die Wellenlängenbandbreite nicht direkt von einer CPU einer Hostvorrichtung für die Projektionseinheiten einer weiteren Vorrichtung angeordnet werden. Unter der Annahme einer Konfiguration, in der eine Master-Vorrichtung, die mehrere Vorrichtungen integral steuert, neu bereitgestellt ist und die Projektionszeitvorgabe oder die Wellenlängenbandbreite von der Master-Vorrichtung für jede der mehreren Vorrichtungen als Slave-Vorrichtungen durch Kommunikation angeordnet wird, ist es insbesondere, da die Master-Vorrichtung neu bereitgestellt werden muss und die Unabhängigkeit einzelner Vorrichtungen beeinträchtigt wird, schwierig, die oben beschriebene Technik auf eine Endeinrichtung anzuwenden, die vom Anwender uneingeschränkt verwendet wird.

Die Erfindung ist unter Berücksichtigung einer derartigen Situation ersonnen worden und eine Aufgabe der Erfindung besteht darin, eine Abstandsbild-Erfassungsvorrichtung und ein Abstandsbild-Erfassungsverfahren zu schaffen, die in der Lage sind, ein Abstandsbild auf der Basis eines von einer Hostvorrichtung projizierten Musters selbst in einem Fall, in dem Muster von strukturiertem Licht mit der gleichen Form gleichzeitig von der Hostvorrichtung und einer weiteren Vorrichtung projiziert werden, mit zufriedenstellender Genauigkeit zu erfassen.

Um die oben beschriebene Aufgabe zu lösen, enthält eine Abstandsbild-Erfassungsvorrichtung gemäß einem Aspekt der Erfindung eine Projektionseinheit, die ein erstes Muster von strukturiertem Licht projiziert, das in einer zweidimensionalen Weise in Bezug auf ein Objekt innerhalb eines Abstandsmessbereichs verteilt ist, eine Lichtmodulationseinheit, die eine Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Musters, das von der Projektionseinheit projiziert wird, mit einem Code moduliert, eine Abbildungseinheit, die parallel zu und um eine Grundlinienlänge von der Projektionseinheit versetzt bereitgestellt ist, eine Abbildung synchronisiert mit einer Projektionszeitspanne und einer Nicht-Projektionszeitspanne des ersten Musters durchführt und mehrere aufgenommene Bilder, die das erste Muster enthalten, das von dem Objekt reflektiert wird, erzeugt, wobei die mehreren aufgenommenen Bilder ein erstes aufgenommenes Bild, das in der Projektionszeitspanne des ersten Musters aufgenommen wird, und ein zweites aufgenommenes Bild, das in der Nicht-Projektionszeitspanne des ersten Musters aufgenommen wird, enthalten, eine Differenzbild-Erzeugungseinheit, die ein Differenzbild des ersten aufgenommenen Bildes, das in der Projektionszeitspanne aufgenommen wird, und des zweiten aufgenommenen Bildes, das in der Nicht-Projektionszeitspanne aufgenommen wird, erzeugt, eine Musterextraktionseinheit, die das erste Muster aus dem Differenzbild extrahiert, und eine Abstandsbild-Erfassungseinheit, die ein Abstandsbild, das einen Abstand des Objekts innerhalb des Abstandsmessbereichs angibt, basierend auf dem ersten Muster, das von der Musterextraktionseinheit extrahiert wird, erfasst.

Gemäß dieser Konfiguration wird die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Musters, das von der Projektionseinheit projiziert wird, durch die Lichtmodulationseinheit mit dem Code moduliert und das erste aufgenommene Bild, das in der Projektionszeitspanne des ersten Musters aufgenommen wird, und das zweite aufgenommene Bild, das in der Nicht-Projektionszeitspanne des ersten Musters aufgenommen wird, werden erzeugt, indem eine Abbildung mit der Abbildungseinheit synchronisiert mit der Projektionszeitspanne und der Nicht-Projektionszeitspanne des ersten Musters durchgeführt wird, das Differenzbild des ersten aufgenommenen Bildes und des zweiten aufgenommenen Bildes wird durch die Differenzbild-Erzeugungseinheit erzeugt, und das erste Muster (das von der Projektionseinheit der Hostvorrichtung projizierte Muster) wird aus dem Differenzbild durch die Musterextraktionseinheit extrahiert. Aus diesem Grund ist es selbst in einem Fall, in dem die Muster von strukturiertem Licht gleichzeitig von der Hostvorrichtung und der weiteren Vorrichtung mit der gleichen Form projiziert werden, möglich, nur basierend auf dem ersten Muster, das von der Hostvorrichtung projiziert wird, ein Abstandsbild mit zufriedenstellender Genauigkeit zu erfassen.

Der Ausdruck, dass die Abbildungseinheit das erste und das zweite "aufgenommene Bild" erzeugt, enthält einen Fall, in dem ein Abbildungssignal gelesen wird, d. h. eine elektrische Ladung einfach aus einem Lichtempfangselement der Abbildungseinheit als Abbildungssignal gelesen wird.

Gemäß einem weiteren Aspekt der Erfindung ist es bei der Abstandsbild-Erfassungsvorrichtung bevorzugt, dass die Lichtmodulationseinheit die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Musters mit einem zufälligen Code moduliert. Das heißt, da die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Musters mit dem Zufallscode moduliert wird, ist es selbst in einem Fall, in dem die Muster von strukturiertem Licht mit der gleichen Form gleichzeitig von der Hostvorrichtung und der weiteren Vorrichtung projiziert werden, möglich, die Schaltzeitvorgaben von Projektion und der Nicht-Projektion der Muster zuverlässig verschieden zu machen.

Gemäß einem weiteren Aspekt der Erfindung ist es bevorzugt, dass die Abstandsbild-Erfassungsvorrichtung ferner eine Bestimmungseinheit enthält, die bestimmt, ob ein zweites Muster von strukturiertem Licht von einer weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird oder nicht, und in einem Fall, in dem die Bestimmungseinheit bestimmt, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird, führt die Lichtmodulationseinheit eine Modulation an dem ersten Muster, das von der Projektionseinheit projiziert wird, durch. Das heißt, dass es während einer Zeitspanne, in der das zweite Muster nicht von einer weiteren Abstandsbild-Abbildungsvorrichtung projiziert wird, möglich ist, ein Abstandsbild zu erzeugen, ohne das erste Muster, das von der Projektionseinheit projiziert wird, zu modulieren.

Gemäß einem nochmals weiteren Aspekt der Erfindung ist es bevorzugt, dass die Abstandsbild-Erfassungsvorrichtung ferner eine Bakeninformations-Empfangseinheit enthält, die von der weiteren Abstandsbild-Erfassungsvorrichtung übertragene Bakeninformationen empfängt, wobei die Bakeninformationen angeben, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird, und in einem Fall, in dem die Bakeninformations-Empfangseinheit die Bakeninformationen empfängt, bestimmt die Bestimmungseinheit, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird. Das heißt, dass es während einer Zeitspanne, in der es keine weitere Vorrichtung, die Bakeninformationen sendet, innerhalb einer Kommunikationsreichweite für die Bakeninformationen gibt, möglich ist, ein Abstandsbild zu erzeugen, ohne das erste Muster, das von der Projektionseinheit projiziert wird, zu modulieren.

Gemäß einem nochmals weiteren Aspekt der Erfindung ist es bei der Abstandsbild-Erfassungsvorrichtung bevorzugt, dass das erste Muster und das zweite Muster Punktmuster sind und die Bestimmungseinheit dann, wenn die Anzahl von Punkten eines Punktmusters, das aus dem von der Abbildungseinheit aufgenommenen Bild detektiert wird, die Anzahl von Punkten des von der Projektionseinheit projizierten ersten Musters übersteigt, bestimmt, dass das zweite Muster von der weiteren Abstandsbild-Erfassungsvorrichtung projiziert wird. Das heißt, dass es leicht möglich ist, zu bestimmen, ob das zweite Muster von einer weiteren Vorrichtung projiziert wird oder nicht.

Gemäß einem nochmals weiteren Aspekt der Erfindung ist es bei der Abstandsbild-Erfassungsvorrichtung bevorzugt, dass die Abbildungseinheit eine Belichtung in einer Belichtungszeitspanne, die einer Bildrate des Abstandsbildes entspricht, ausführt und die Lichtmodulationseinheit die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Musters synchronisiert mit der Start- und Endzeitvorgabe der Belichtungszeitspanne der Abbildungseinheit moduliert.

Ein Abstandsbild-Erfassungsverfahren gemäß einem nochmals weiteren Aspekt der Erfindung enthält einen Schritt eines Modulierens einer Schaltzeitvorgabe von Projektion und Nicht-Projektion eines ersten Musters von strukturiertem Licht, das zweidimensional in Bezug auf ein Objekt innerhalb eines Abstandsmessbereichs verteilt ist, mit einem Code und eines Veranlassens, dass eine Projektionseinheit das erste Muster projiziert, einen Schritt eines Durchführens einer Abbildung synchronisiert mit einer Projektionszeitspanne und einer Nicht-Projektionszeitspanne des ersten Musters mit einer Abbildungseinheit, die parallel zu und um eine Grundlinienlänge von der Projektionseinheit versetzt bereitgestellt ist, und eines Erzeugens mehrerer aufgenommener Bilder, die das erste Muster enthalten, das von dem Objekt reflektiert wird, wobei die mehreren aufgenommenen Bilder ein erstes aufgenommenes Bild, das in der Projektionszeitspanne des ersten Musters aufgenommen wird, und ein zweites aufgenommenes Bild, das in der Nicht-Projektionszeitspanne des ersten Musters aufgenommen wird, enthalten, einen Schritt eines Erzeugens eines Differenzbildes des ersten aufgenommenen Bildes, das in der Projektionszeitspanne aufgenommen wird, und des zweiten aufgenommenen Bildes, das in der Nicht-Projektionszeitspanne erfasst wird, einen Schritt eines Extrahierens des ersten Musters aus dem Differenzbild und einen Schritt eines Erfassens eines Abstandsbildes, das einen Abstand des Objekts innerhalb des Abstandsmessbereichs angibt, auf der Basis des extrahierten ersten Musters.

Gemäß der Erfindung ist es selbst in einem Fall, in dem die Muster von strukturiertem Licht mit der gleichen Form gleichzeitig von der Hostvorrichtung und einer weiteren Vorrichtung projiziert werden, möglich, ein Abstandsbild auf der Basis des von der Hostvorrichtung projizierten Musters mit zufriedenstellender Genauigkeit zu erfassen.

Kurzbeschreibung der Zeichnungen

1 ist eine Darstellung eines Erscheinungsbildes, das eine erste Ausführungsform einer Abstandsbild-Erfassungsvorrichtung gemäß der Erfindung zeigt.

2 ist eine Darstellung, die das Prinzip der Abstandsbilderfassung veranschaulicht.

3 ist ein Blockdiagramm, das ein Beispiel einer internen Konfiguration der Abstandsbild-Erfassungsvorrichtung der ersten Ausführungsform zeigt.

4 ist eine Darstellung, die ein Beispiel eines aufgenommenen Bildes zeigt, das durch Abbilden in einem Zustand, in dem kein Punktmuster von einer weiteren Vorrichtung projiziert wird, erhalten wird, wenn ein Punktmuster von einer Hostvorrichtung projiziert wird.

5 ist eine Darstellung, die ein Beispiel eines aufgenommenen Bildes zeigt, das durch Abbilden in einem Zustand, in dem ein Punktmuster von einer weiteren Vorrichtung projiziert wird, erhalten wird, wenn ein Punktmuster von der Hostvorrichtung projiziert wird.

6 ist eine erläuternde Ansicht von Codes zur Verwendung bei einer Modulation einer Schaltzeitvorgabe von Projektion und Nicht-Projektion eines Musters.

7 ist eine erste erläuternde Ansicht, die Punkte darstellt, wenn Punktmuster gemischt werden.

8 ist eine erste erläuternde Ansicht, die die Beziehung einer Modulation der Schaltzeitvorgabe von Projektion und der Nicht-Projektion des Musters und eines Pixelwerts eines Differenzbildes in der ersten Ausführungsform darstellt.

9 ist eine zweite erläuternde Ansicht, die die Beziehung der Modulation der Schaltzeitvorgabe von Projektion und der Nicht-Projektion des Musters und des Pixelwerts des Differenzbildes in der ersten Ausführungsform darstellt.

10 ist ein Ablaufdiagramm, das den Ablauf einer Verarbeitung eines Beispiels eines Abstandsbild-Erfassungsverfahrens in der ersten Ausführungsform zeigt.

11 ist ein Blockdiagramm, das ein Beispiel einer internen Konfiguration einer Abstandsbild-Erfassungsvorrichtung einer zweiten Ausführungsform zeigt.

12 ist ein Ablaufdiagramm, das den Ablauf einer Verarbeitung eines Beispiels eines Abstandsbild-Erfassungsverfahrens in der zweiten Ausführungsform zeigt.

13 eine Darstellung eines Erscheinungsbildes, das ein Smartphone zeigt, das ein Beispiel der Abstandsbild-Erfassungsvorrichtung ist.

14 ist ein Blockdiagramm, das die Konfiguration des Smartphones zeigt. Beschreibung der bevorzugten Ausführungsformen Nachfolgend wird eine Ausführungsform einer Abstandsbild-Erfassungsvorrichtung und eines Abstandsbild-Erfassungsverfahrens gemäß der Erfindung unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.

<Erste Ausführungsform>

1 ist eine Darstellung eines Erscheinungsbildes, das eine erste Ausführungsform einer Abstandsbild-Erfassungsvorrichtung 10 gemäß der Erfindung zeigt.

Wie in 1 gezeigt weist die Abstandsbild-Erfassungsvorrichtung 10 eine Projektionseinheit 12 und eine Abbildungseinheit 14 auf. Wie im Folgenden im Einzelnen beschrieben wird, erfasst die Abstandsbild-Erfassungsvorrichtung 10 in einem Fall, in dem ein Abbildungsbefehl, der durch die Betätigung des Verschlussknopfes 11 eingegeben wird, ausgeführt wird, ein Abstandsbild, das einen Abstand (Tiefeninformationen) eines Objekts innerhalb eines Abbildungsbereichs (Abstandsmessbereichs) angibt.

Die Abstandsbild-Erfassungsvorrichtung 10 weist einen Standbildmodus, in dem ein Abstandsbild für ein Einzelbild wie bei einer Standbildaufnahme erfasst wird, und einen Videomodus, in dem ein Abstandsbild, das kontinuierlich mit einer vorbestimmten Bildrate (beispielsweise 30 Einzelbilder/Sekunde, 60 Einzelbilder/Sekunde) wie bei einer Videoaufnahme erfasst wird, auf. Der Standbildmodus und der Videomodus können durch eine Bedienung einer Modusauswahleinheit einer Bedienungseinheit 28 (3) geeignet ausgewählt werden. Dann wird in einem Fall, in dem ein Verschlussknopf 11 mit einem Druck betätigt wird, wenn der Standbildmodus ausgewählt ist, ein Abstandsbild für ein Einzelbild erfasst. In einem Fall, in dem der Verschlussknopf 11 mit einem Druck betätigt wird, wenn der Videomodus ausgewählt ist, wird eine kontinuierliche Erfassung eines Abstandsbildes mit einer vorbestimmten Bildrate begonnen, und in einem Fall, in dem der Verschlussknopf 11 mit einem Druck erneut betätigt wird, wird die Abstandsbilderfassung gestoppt.

2 ist eine Darstellung, die das Prinzip der Abstandsbilderfassung in der Abstandsbild-Erfassungsvorrichtung veranschaulicht.

Wie in 2 gezeigt projiziert die Projektionseinheit 12 zu dem Zeitpunkt der Erfassung des Abstandsbildes ein Muster (erstes Muster) von strukturiertem Licht, das in einer zweidimensionalen Weise in Bezug auf ein Objekt innerhalb eines Abstandsmessbereichs verteilt ist. In dieser Ausführungsform wird als das erste Muster von strukturiertem Licht ein matrixförmiges Punktmuster auf das Objekt projiziert. Nachfolgend wird das erste Muster von strukturiertem Licht, das von der Projektionseinheit 12 projiziert wird, als "erstes Punktmuster" bezeichnet.

Die Abbildungseinheit 14 nimmt ein Bild auf, das das erste Punktmuster enthält, das von dem Objekt reflektiert wird. Wie in 2 gezeigt ist die Abbildungseinheit 14 parallel zu und um eine Grundlinienlänge L von der Projektionseinheit 12 versetzt bereitgestellt, und eine Parallaxe gemäß dem Abstand des Objekts wird zwischen den entsprechenden Punkten des ersten Punktmusters, das von der Projektionseinheit 12 projiziert wird, und des ersten Punktmusters, das durch die Abbildungseinheit 14 abgebildet wird, erzeugt. Dementsprechend ist es möglich, das Abstandsbild, das den Abstand des Objekts angibt, unter Verwendung eines Triangulationsverfahrens auf der Basis einer Lichtempfangsposition (nicht gezeigt) jedes Punktes des ersten Punktmusters, das von der Projektionseinheit 12 auf einen von der Abbildungseinheit 14 abgebildeten Bildsensor projiziert wird, zu erfassen.

Obwohl die Projektionseinheit 12 dieser Ausführungsform wie in 2 und 8 gezeigt das matrixförmige erste Punktmuster projiziert, ist die Erfindung nicht darauf beschränkt, und die Projektionseinheit 12 kann ein Punktmuster, in dem ein Punktintervall zufällig (pseudozufällig) oder ein netzförmiges Muster ist, projizieren.

3 ist ein Blockdiagramm, das ein Beispiel einer internen Konfiguration der Abstandsbild-Erfassungsvorrichtung 10 zeigt.

Die Abstandsbild-Erfassungsvorrichtung 10 enthält zusätzlich zu der Projektionseinheit 12 und der Abbildungseinheit 14, die oben beschrieben sind, einen Analog/Digital-Umsetzer (A/D-Umsetzer) 16, eine Schnittstellenschaltung 18, eine zentrale Verarbeitungseinheit (CPU) 20, eine Lichtmodulationseinheit 22, eine Ansteuereinheit 26, eine Bedienungseinheit 28, eine Kommunikationseinheit 30 und eine Speichereinheit 32.

Die Projektionseinheit 12 weist eine Nahinfrarot-Leuchtdiode (Nahinfrarot-LED) 12A, ein optisches Beugungselement 12B und eine Projektionslinse 12C auf, die als ein optisches Projektionssystem fungieren.

Das optische Beugungselement 12B fungiert als ein Element, das eine Lichtintensitätsverteilung unter Verwendung eines Lichtbeugungsphänomens umwandelt. In diesem Beispiel tritt Nahinfrarotlicht, das aus der Nahinfrarot-LED 12A emittiert wird, in das optische Beugungselement 12B ein und das optische Beugungselement 12B wandelt Nahinfrarotlicht in das in 2 gezeigte matrixförmige erste Punktmuster um. Die Projektionslinse 12C projiziert das erste Punktmuster aus Nahinfrarotlicht, das durch das optische Beugungselement 12B umgewandelt wird, auf das Objekt innerhalb des Abstandsmessbereichs, der dem Abbildungsbereich (Abstandsmessbereich) der Abbildungseinheit 14 entspricht.

Die Abbildungseinheit 14 besteht aus einer Abbildungslinse 14A und einem Bildsensor 14B. Die Abbildungslinse 14A bildet reflektiertes Licht (ein Lichtbild, das das erste Punktmuster enthält, das von der Projektionseinheit 12 projiziert und von dem Objekt reflektiert wird) von dem Objekt auf dem Bildsensor 14B ab.

Der Bildsensor 14B besteht aus einem Komplementär-Metall-Oxid-Halbleiter-Treiber (CMOS-Treiber), der einen vertikalen Treiber, einen horizontalen Treiber und dergleichen aufweist, und einem CMOS-Bildsensor, der von einem Zeitvorgabengenerator angesteuert wird. Der Bildsensor 14B ist nicht auf einen CMOS-Typ beschränkt und kann ein Bildsensor vom XY-Adresstyp oder Typ ladungsgekoppelte Vorrichtung (CCD) sein.

Der Bildsensor 14B weist mehrere Lichtempfangselemente (Photodioden) auf, die in zweidimensionaler Weise angeordnet sind, und ist auf einer Einfallsfläche mehrerer Lichtempfangselemente mit einem Bandpassfilter, das nur eine Wellenlängenbandbreite des ersten Punktmusters von Nahinfrarotlicht, das von der Projektionseinheit 12 projiziert wird, durchlässt, oder einem Filter zum Sperren von sichtbarem Licht, das sichtbares Licht beseitigt, versehen. Damit fungieren mehrere Lichtempfangselemente des Bildsensors 14B als Pixel mit Empfindlichkeit für Nahinfrarotlicht.

In dem Bildsensor 14B wird eine Belichtungszeitspanne gemäß einem Zeitvorgabensignal (Verschlusssteuersignal) gesteuert, das von dem Zeitvorgabengenerator (nicht gezeigt) angelegt wird, und eine elektrische Ladung, die der Menge des Nahinfrarotlichts entspricht, das in der Belichtungszeitspanne eintritt, wird in jedem Lichtempfangselement des Bildsensors 14B gesammelt. Dann wird ein Pixelsignal (ein analoges Signal, das der in jedem Pixel gesammelten elektrischen Ladung entspricht) entsprechend der Menge des einfallenden Lichts des ersten Punktmusters, das von dem Objekt reflektiert wird, aus dem Bildsensor 14B gelesen. In einem Fall, in dem das Objekt mit Umgebungslicht bestrahlt wird und eine Komponente in der Wellenlängenbandbreite von Nahinfrarotlicht in dem Umgebungslicht enthalten ist, ist die Komponente in der Wellenlängenbandbreite von Nahinfrarotlicht aus dem Umgebungslicht in dem Pixelsignal als Rauschsignal enthalten.

Das aus dem Bildsensor 14B ausgelesene analoge Signal wird durch den A/D-Umsetzer 16 in ein digitales Signal (Bilddaten) umgesetzt und über die Schnittstellenschaltung 18, die als Bildeingangscontroller fungiert, in die CPU 20 geladen. Ein CMOS-Bildsensor kann einen A/D-Umsetzer enthalten und in diesem Fall kann der A/D-Umsetzer 16 entfallen.

Wie nachfolgend im Einzelnen beschrieben hat die CPU 20 eine Funktion als Vorrichtungssteuereinheit, die eine Belichtungssteuerung der Abstandsbild-Erfassungsvorrichtung 10 durchführt und die jeweiligen Einheiten wie beispielsweise die Lichtmodulationseinheit 22 und die Ansteuereinheit 26 gemäß einer Befehlseingabe an der Bedienungseinheit 28 integral steuert, und eine Funktion als Musterextraktionseinheit 20A, Abstandsbild-Erfassungseinheit 20B, Bestimmungseinheit 20C und Differenzbild-Erzeugungseinheit 20D.

Die Musterextraktionseinheit 20A extrahiert das erste Punktmuster aus den durch die Schnittstellenschaltung 18 eingespeisten Bilddaten. Zum Beispiel extrahiert die Musterextraktionseinheit 20A Bilddaten (binäre Bilddaten), die nur das erste Punktmuster angeben, durch Festlegen eines geeigneten Schwellenwerts und Binarisieren von Eingangsbilddaten auf der Basis des Schwellenwerts.

Die Abstandsbild-Erfassungseinheit 20B erfasst (erzeugt) das Abstandsbild, das den Abstand des Objekts innerhalb des Abstandsmessbereichs angibt, basierend auf dem ersten Punktmuster, das durch die Musterextraktionseinheit 20A extrahiert wird. Die Abstandsbild-Erfassungseinheit 20B erhält die Position (beispielsweise die Position des Schwerpunkts jedes Punktes) jedes Punktes des ersten Punktmusters auf dem Bildsensor 14B auf der Basis von binären Bilddaten, die nur das erste Punktmuster angeben, berechnet den Abstand des Objekts für jeden Punkt auf der Basis der erhaltenen Position jedes Punktes des ersten Punktmusters auf dem Bildsensor 14B und erfasst (erzeugt) somit das Abstandsbild, das den Abstand des Objekts innerhalb des Abstandsmessbereichs angibt. Obwohl das Abstandsbild zweidimensionale Abstandsinformationen enthält, die den Abstand des Objekts innerhalb des Abstandsmessbereichs angeben, kann das Abstandsbild durch Ersetzen der Abstandsinformationen durch Helligkeitswerte oder Farbinformationen, die dem Abstand entsprechen, visuell als Bild erkannt werden.

Die Bestimmungseinheit 20C ist ein Teil, der bestimmt, ob ein Muster (zweites Muster) von strukturiertem Licht aus einer weiteren Abstandsbild-Erfassungsvorrichtung (nachfolgend einfach als "weitere Vorrichtung" bezeichnet) projiziert wird oder nicht. Nachfolgend wird ein Fall, in dem ein matrixförmiges Punktmuster von einer weiteren Vorrichtung als das zweite Muster von strukturiertem Licht auf das Objekt projiziert wird, als Beispiel beschrieben und das zweite Muster von strukturiertem Licht, das von der weiteren Vorrichtung projiziert wird, wird als "zweites Punktmuster" bezeichnet. Das heißt, dass die Bestimmungseinheit 20C bestimmt, ob das zweite Punktmuster, das von einer weiteren Vorrichtung projiziert wird, in dem aufgenommenen Bild enthalten ist oder nicht.

Die Differenzbild-Erzeugungseinheit 20D erzeugt ein Differenzbild des ersten aufgenommenen Bildes, das in der Projektionszeitspanne des ersten Punktmusters aufgenommen wurde, und des zweiten aufgenommenen Bildes, das in der Nicht-Projektionszeitspanne des ersten Punktmusters aufgenommen wird. Die Lichtmodulationseinheit 22 moduliert das von der Projektionseinheit 12 projizierte erste Punktmuster zeitlich. Die Ansteuereinheit 26 steuert die Projektionseinheit 12 gemäß einem Befehl aus der CPU 20 an. Die Bedienungseinheit 28 enthält einen Leistungsschalter, einen Verschlussknopf 11, eine Modusauswahleinheit und dergleichen und eine Befehlseingabe an der Bedienungseinheit 28 wird auf die CPU 20 angewendet.

Die Kommunikationseinheit 30 ist eine drahtlose Kurzstrecken-Kommunikationseinheit, die eine drahtlose Kommunikation mit einer weiteren Vorrichtung oder einem Zugangspunkt durchführt und als eine Bakeninformations-Empfangseinheit fungiert, die direkt von einer weiteren Vorrichtung oder über den Zugangspunkt gesendete Bakeninformationen empfängt. Die Bestimmungseinheit 20C kann gemäß einem Empfangsergebnis der Bakeninformationen aus der Kommunikationseinheit 30 bestimmen, ob eine weitere Vorrichtung innerhalb einer Kommunikationsreichweite vorhanden ist oder nicht (d. h., ob das zweite Punktmuster von einer weiteren Vorrichtung projiziert wird oder nicht). Die Bakeninformation können Informationen, die die Form des Musters (zweiten Punktmusters) von strukturiertem Licht, das von einer weiteren Vorrichtung projiziert wird, und Modulationsinformationen (insbesondere einen Code, der eine Schaltzeitvorgabe von Projektion und Nicht-Projektion des zweiten Punktmusters angibt), die einen Modulationsinhalt der zeitlichen Modulation des zweiten Punktmusters angeben, enthalten. In diesem Fall kann die Bestimmungseinheit 20C Informationen (die Form des zweiten Punktmusters, die Modulationsinformationen, die den Modulationsinhalt der zeitlichen Modulation angeben, oder dergleichen), die sich auf das zweite Punktmuster beziehen, das von einer weiteren Vorrichtung projiziert wird, auf der Basis der Bakeninformationen, die über die Kommunikationseinheit 30 empfangen werden, erfassen.

Als Nächstes wird ein Hauptteil einer Konfiguration zum Erfassen eines Abstandsbildes in einem Zustand, in dem das zweite Punktmuster von einer weiteren Vorrichtung projiziert wird, beschrieben.

4 ist eine Darstellung, die ein Beispiel eines aufgenommenen Bildes zeigt, das durch Abbilden mit der Abbildungseinheit 14 in einem Zustand, in dem kein Punktmuster von einer weiteren Vorrichtung projiziert wird, erhalten wird, wenn ein Punktmuster von der Hostvorrichtung projiziert wird. Da das in 4 gezeigte aufgenommene Bild nur das erste Punktmuster enthält, das von der Projektionseinheit 12 der Hostvorrichtung projiziert und von dem Objekt innerhalb eines Abstandsmessbereichs A reflektiert wird, ist es möglich, das erste Punktmuster durch Durchführen einer einfachen Bildverarbeitung wie etwa der Binarisierungsverarbeitung unter Verwendung der oben beschriebenen Schwelle zu extrahieren. In einem Fall jedoch, in dem das zweite Punktmuster von einer weiteren Vorrichtung projiziert wird, ist es dann, wenn das erste Punktmuster von der Hostvorrichtung projiziert wird, deshalb, weil wie in 5 gezeigt ein Überlappungsbereich B, in dem das erste Punktmuster und das zweite Punktmuster sich überlappen, in dem Abstandsmessbereich A des aufgenommenen Bildes, das durch Abbilden mit der Abbildungseinheit 14 erhalten wird, vorhanden ist und das erste Punktmuster und das zweite Punktmuster die gleiche Punktform aufweisen, schwierig, das erste Punktmuster aus dem aufgenommenen Bild zu extrahieren. Da ferner die Hostvorrichtung und die weitere Vorrichtung unabhängige getrennte Abstandsbild-Erfassungsvorrichtungen sind, ist es für die CPU 20 der Hostvorrichtung schwierig, die Zeitvorgabe der Musterprojektion in Bezug auf die Projektionseinheit der weiteren Vorrichtung direkt zu steuern. Dementsprechend extrahiert die Abstandsbild-Erfassungsvorrichtung 10 dieser Ausführungsform sogar in einem Zustand, in dem das zweite Punktmuster von einer weiteren Vorrichtung projiziert wird, mit der folgenden Konfiguration nur das erste Punktmuster aus dem aufgenommenen Bild.

Die Projektionseinheit 12 projiziert das erste Punktmuster in Bezug auf das Objekt innerhalb des Abstandsmessbereichs. Die Abbildungseinheit 14 führt eine Abbildung synchronisiert mit der Projektionszeitspanne und der Nicht-Projektionszeitspanne des ersten Punktmusters durch und erzeugt mehrere aufgenommene Bilder, die das erste Punktmuster, das von dem Objekt reflektiert wird, enthalten. Mehrere aufgenommene Bilder enthalten das erste aufgenommene Bild, das in der Projektionszeitspanne des ersten Punktmusters aufgenommen wird, und das zweite aufgenommene Bild, das in der Nicht-Projektionszeitspanne des ersten Punktmusters aufgenommen wird. Die Lichtmodulationseinheit 22 moduliert die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Punktmusters, das von der Projektionseinheit 12 projiziert wird, mit dem Code. Die Differenzbild-Erzeugungseinheit 20D erzeugt das Differenzbild des ersten aufgenommenen Bildes, das in der Projektionszeitspanne des ersten Punktmusters aufgenommen wird, und des zweiten aufgenommenen Bildes, das in der Nicht-Projektionszeitspanne des ersten Punktmusters aufgenommen wird. Die Musterextraktionseinheit 20A extrahiert das erste Muster aus dem Differenzbild. Die Abstandsbild-Erfassungseinheit 20B erfasst das Abstandsbild, das den Abstand des Objekts innerhalb des Abstandsmessbereichs angibt, basierend auf dem ersten Muster, das durch die Musterextraktionseinheit 20A extrahiert wird.

Als Nächstes werden Codes zur Verwendung bei einer Modulation einer Schaltzeitvorgabe von Projektion und Nicht-Projektion eines Musters unter Bezugnahme auf 6 beschrieben.

Codes C1 bis CN, die auf der linken Seite von 6 gezeigt sind, sind Informationen, die die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Punktmusters, das von der Projektionseinheit 12 wie auf der rechten Seite der Zeichnung gezeigt projiziert wird, angeben. In diesem Beispiel werden die Codes im Voraus in einer Codespeichereinheit 22A der Lichtmodulationseinheit 22 gespeichert und die Lichtmodulationseinheit 22 moduliert die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Punktmusters, das von der Projektionseinheit 12 projiziert wird, gemäß dem Code, der aus der Codespeichereinheit 22A gelesen wird. Obwohl in 6 zur leichteren Verständlichkeit die Codes C1 bis CN mit einer Codelänge von sechs Bits gezeigt sind, ist die Codelänge nicht besonders eingeschränkt. Ein Satz von Codes mit unterschiedlichen Codelängen kann verwendet werden. Im Fall des Videomodus, in dem ein Abstandsbild kontinuierlich erfasst wird, ist es jedoch bevorzugt, dass die Codelänge kurz ist.

Als Nächstes wird wie in 7 gezeigt eine Extraktion nur eines ersten Punktmusters DP1 in einem Fall, in dem ein erstes Punktmuster DP1, das von der Hostvorrichtung projiziert wird, und ein zweites Punktmuster DP2, das von einer weiteren Vorrichtung projiziert wird, in einem aufgenommenen Bild enthalten sind, mit Beispielen von spezifischen Codes beschrieben.

Zuerst wird ein Fall, in dem die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Punktmusters DP1 mit dem Code C1 moduliert wird, wie es in einem Abschnitt (A) von 8 gezeigt, und die Schaltzeitvorgabe von Projektion und Nicht-Projektion des zweiten Punktmusters DP2 mit dem Code C2 moduliert wird, wie in einem Abschnitt (B) von 8 gezeigt ist, beschrieben.

Die auf der Lichtempfangsfläche des Bildsensors 14B der Abbildungseinheit 14 in zweidimensionaler Weise angeordneten Lichtempfangselemente werden jeweils in der Projektionszeitspanne (T1, T3 in der Zeichnung) des ersten Punktmusters und der Nicht-Projektionszeitspanne (T2, T4 in der Zeichnung) des ersten Punktmusters belichtet. Ein erstes aufgenommenes Bild, das durch Abbilden in der Projektionszeitspanne des ersten Punktmusters erhalten wird, und ein zweites aufgenommenes Bild, das durch Abbilden in der Nicht-Projektionszeitspanne des ersten Punktmusters erhalten wird, werden von der Abbildungseinheit 14 ausgegeben. Die Abbildungseinheit 14 dieses Beispiels gibt ein analoges Abbildungssignal mit einem Signalwert, der dem Betrag der gesammelten elektrischen Ladung entspricht, die aus den Lichtempfangselementen gelesen wird, als aufgenommenes Bild aus. Das analoge Abbildungssignal wird durch den A/D-Umsetzer 16 in ein digitales Bildsignal umgesetzt und in der Speichereinheit 32 durch die Schnittstellenschaltung 18 als aufgenommenes Bild aus digitalen Daten gespeichert. Die Differenzbild-Erzeugungseinheit 20D erzeugt ein Differenzbild durch Subtrahieren eines Pixelwerts (der dem Betrag der gesammelten elektrischen Ladung in der Nicht-Projektionszeitspanne entspricht) des zweiten aufgenommenen Bildes von einem Pixelwert (dem Betrag der gesammelten elektrischen Ladung in der Projektionszeitspanne entspricht) des ersten aufgenommenen Bildes für jede Pixelposition.

Ein Abschnitt (C) von 8 zeigt schematisch Werte (Differenzpixelwerte D11, D12) von Pixeln, die dem ersten Punktmuster DP1 in dem Differenzbild entsprechen. Der Differenzpixelwert D11 entspricht einem Wert, der durch Subtrahieren der Belichtung in der Nicht-Projektionszeitspanne T2 des ersten Punktmusters DP1 von der Belichtung in der Projektionszeitspanne T1 des ersten Punktmusters DP1 erhalten wird, und der Differenzpixelwert D12 entspricht einem Wert, der durch Subtrahieren der Belichtung in der Nicht-Projektionszeitspanne T4 des ersten Punktmusters DP1 von der Belichtung in der Projektionszeitspanne T3 des ersten Punktmusters DP1 erhalten wird. Ein Abschnitt (D) von 8 zeigt Werte (Differenzpixelwerte D21, D22) von Pixeln, die dem zweiten Punktmuster DP2 in dem Differenzbild entsprechen. Der Differenzpixelwert D21 entspricht einem Wert, der durch Subtrahieren der Belichtung in der Nicht-Projektionszeitspanne T2 des zweiten Punktmusters DP2 von der Belichtung in der Projektionszeitspanne T1 des zweiten Punktmusters DP2 erhalten wird, und der Differenzpixelwert D22 entspricht einem Wert, der durch Subtrahieren der Belichtung in der Nicht-Projektionszeitspanne T4 des zweiten Punktmusters DP2 von der Belichtung in der Projektionszeitspanne T3 des zweiten Punktmusters DP2 erhalten wird.

Wie in dem Abschnitt (C) von 8 und dem Abschnitt (D) von 8 gezeigt ist es, da der Differenzpixelwert D11 und der Differenzpixelwert D21, die der Projektionszeitspanne T1 und der Nicht-Projektionszeitspanne T2 entsprechen, eine kleine Differenz aufweisen, schwierig, aus den Differenzpixelwerten D11 und D21 zu identifizieren, ob ein Pixel des Differenzbildes ein Pixel, das dem ersten Punktmuster DP1 entspricht, das von der Hostvorrichtung projiziert wird, oder ein Pixel, das dem zweiten Punktmuster DP2 entspricht, das von einer weiteren Vorrichtung projiziert wird, ist.

Wie in dem Abschnitt (C) von 8 und dem Abschnitt (D) von 8 gezeigt ist es, da der Differenzpixelwert D12, der der Projektionszeitspanne T3 entspricht, und der Differenzpixelwert D22, der der Nicht-Projektionszeitspanne T4 entspricht, eine große Differenz aufweisen, jedoch möglich, aus den Differenzpixelwerten D12 und D22 zu identifizieren, ob ein Pixel des Differenzbildes ein Pixel, das dem ersten Punktmuster DP1 entspricht, das von der Hostvorrichtung projiziert wird, oder ein Pixel, der dem zweiten Punktmuster DP2 entspricht, das von einer weiteren Vorrichtung projiziert wird, ist. Das heißt, da der Code der Schaltzeitvorgabe von Projektion und Nicht-Projektion sich zwischen dem ersten Punktmuster DP1 und dem zweiten Punktmuster DP2 unterscheidet, werden die Differenzpixelwerte für jede Pixelposition über die Zeitspannen T1 bis T4 entsprechend der Codelänge des Codes C1 der Hostvorrichtung integriert, wodurch das erste Punktmuster DP1 identifiziert wird. Der Code C1 gibt die Schaltzeitvorgabe mehrerer Projektionszeitspannen T1 und T3 und mehrerer Nicht-Projektionszeitspannen T2 und T4 an und mehrere Projektionszeitspannen T1 und T3 unterscheiden sich in der Zeitlänge (in diesem Beispiel T1 < T3). Weiterhin unterscheiden sich mehrere Nicht-Projektionszeitspannen T2 und T4 in der Zeitlänge (in diesem Beispiel T2 < T4).

Die Musterextraktionseinheit 20A dieses Beispiels integriert die Differenzpixelwerte für jede Pixelposition über die Zeitspannen T1 bis T4, die beispielsweise der Codelänge des Codes C1 der Hostvorrichtung entsprechen. In der Zeichnung sind S1 und S2 Werte, die den integrierten Werten entsprechen. In einem Fall, in dem der integrierte Wert größer oder gleich einer Schwelle ist, kann bestimmt werden, dass das Differenzpixel ein Pixel des ersten Punktmusters ist, und in einem Fall, in dem der integrierte Wert kleiner als der Schwellenwert ist, kann bestimmt werden, dass das Differenzpixel kein Pixel des ersten Punktmusters ist. Das heißt, durch Vergleich des integrierten Wertes (D11 + D12) der Differenzpixelwerte D11 und D12 mit der Schwelle wird ein Pixel des Differenzbildes als ein das erste Punktmuster bildendes Pixel identifiziert und durch Vergleich des integrierten Wertes (D21 + D22) der Differenzpixelwerte D21 und D22, die in dem Abschnitt (D) von 8 gezeigt sind, mit der Schwelle wird ein Pixel des Differenzbildes als ein Pixel, das das erste Punktmuster nicht bildet, identifiziert. S1 in 8 entspricht dem integrierten Wert (D11 + D12) und S2 in 8 entspricht dem integrierten Wert (D21 + D22). Das erste Punktmuster kann aus dem Differenzbild extrahiert werden, indem eine Gruppe von Pixeln, in denen der integrierte Wert der Differenzpixelwerte in dem Differenzbild relativ groß ist, und eine Gruppe von Pixeln, in denen der integrierte Wert der Differenzpixelwerte in dem Differenzbild relativ klein ist, unter Verwendung eines Histogramms klassifiziert werden und die Gruppe von Pixeln, in denen der integrierte Wert der Differenzpixelwerte relativ groß ist, als Gruppe von Pixeln des ersten Punktmusters bestimmt wird.

Als Nächstes wird ein Fall, bei dem die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Punktmusters DP1 mit dem Code C2 moduliert wird, wie es in einem Abschnitt (A) von 9 gezeigt, und die Schaltzeitvorgabe von Projektion und Nicht-Projektion des zweiten Punktmusters DP2 mit dem Code C1 moduliert, wie es in einem Abschnitt (B) von 9 gezeigt ist, beschrieben.

In einem Abschnitt (C) von 9 entsprechen die Differenzpixelwerte D11 und D12 der Belichtungsdifferenz zwischen der Projektionszeitspanne T1 und der Nicht Projektionszeitspanne T2 des ersten Punktmusters DP1 bzw. der Belichtungsdifferenz zwischen der Projektionszeitspanne T3 und der Nicht-Projektionszeitspanne T4 des ersten Punktmusters DP1. In einem Abschnitt (D) von 9 entsprechen die Differenzpixelwerte D21 und D22 der Belichtungsdifferenz zwischen der Projektionszeitspanne T1 und der Nicht-Projektionszeitspanne T2 des zweiten Punktmusters DP2 bzw. der Belichtungsdifferenz zwischen der Projektionszeitspanne T3 und der Nicht-Projektionszeitspanne T4 des zweiten Punktmusters DP2.

Wie in dem Abschnitt (C) von 9 und dem Abschnitt (D) von 9 gezeigt ist es, da der Differenzpixelwert D11 und der Differenzpixelwert D21, die der Projektionszeitspanne T1 und der Nicht-Projektionszeitspanne T2 entsprechen, eine kleine Differenz aufweisen, schwierig, aus den Differenzpixelwerten D11 und D21 zu identifizieren, ob ein Pixel des Differenzbildes ein Pixel, das dem ersten Punktmuster DP1 entspricht, oder ein Pixel, das dem zweiten Punktmuster DP2 entspricht, ist.

Wie jedoch in dem Abschnitt (C) von 9 und dem Abschnitt (D) von 9 gezeigt ist es, da der Differenzpixelwert D12 und der Differenzpixelwert D22, die der Projektionszeitspanne T3 und der Nicht-Projektionszeitspanne T4 entsprechen, eine große Differenz aufweisen, möglich, aus den Differenzpixelwerten D12 und D22 zu identifizieren, ob ein Pixel des Differenzbildes ein Pixel des ersten Punktmusters, das von der Hostvorrichtung projiziert wird, oder ein Pixel des zweiten Punktmusters, das von einer weiteren Vorrichtung projiziert wird, ist.

Die Musterextraktionseinheit 20A dieses Beispiels integriert die Differenzpixelwerte für jede Pixelposition über die Zeitspannen T1 bis T4, die beispielsweise der Codelänge des Codes C2 der Hostvorrichtung entsprechen. In der Zeichnung sind S3 und S4 Werte, die den integrierten Werten entsprechen. In einem Fall, in dem der integrierte Wert größer oder gleich der Schwelle ist, kann bestimmt werden, dass das Differenzpixel ein Pixel des ersten Punktmusters ist, und in einem Fall, in dem der integrierte Wert kleiner als die Schwelle ist, kann bestimmt werden, dass das Differenzpixel kein Pixel des ersten Punktmusters ist.

10 ist ein Ablaufdiagramm, das den Ablauf der Verarbeitung eines Beispiels eines Abstandsbild-Erfassungsverfahrens in der ersten Ausführungsform zeigt, und stellt in erster Linie den Ablauf der Verarbeitung dar, der unter der Steuerung der CPU 20 gemäß einem Programm ausgeführt wird. Diese Verarbeitung ist eine Abstandsbild-Erfassungsverarbeitung in dem Videomodus und startet beispielsweise in einem Fall, in dem der Verschlussknopf 11 mit einem Druck betätigt wird.

Zuerst setzt die CPU 20 eine Variable i zum Identifizieren eines Codes auf "1" als Anfangswert (Schritt S102).

Als Nächstes wird die Lichtmodulationseinheit 22 dazu veranlasst, einen iten Code (Ci), der die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Punktmusters angibt, aus der Codespeichereinheit 22A zu erfassen (Schritt S104).

Als Nächstes wird die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Punktmusters durch die Lichtmodulationseinheit 22 mit dem i-ten Code moduliert, das erste Punktmuster wird von der Projektionseinheit 12 auf das Objekt innerhalb des Abstandsbereichs projiziert und das Objekt innerhalb des Abstandsmessbereichs wird von der Abbildungseinheit 14 synchronisiert mit der Projektionszeitspanne und der Nicht-Projektionszeitspanne des ersten Punktmusters abgebildet (Schritt S106). Mehrere aufgenommene Bilder, die das erste Punktmuster enthalten, das von dem Objekt reflektiert wird, werden von der Abbildungseinheit 14 ausgegeben. Mehrere aufgenommene Bilder enthalten ein erstes aufgenommenes Bild, das durch Abbilden in der Projektionszeitspanne des ersten Punktmusters erzeugt wird, und ein zweites aufgenommenes Bild, das durch Abbilden in der Nicht-Projektionszeitspanne des ersten Punktmusters erzeugt wird.

Als Nächstes wird ein Differenzbild des ersten aufgenommenen Bildes, das durch Abbilden in der Projektionszeitspanne erhalten wird, und des zweiten aufgenommenen Bildes, das durch Abbilden in der Nicht-Projektionszeitspanne erhalten wird, durch die Differenzbild-Erzeugungseinheit 20D erzeugt (Schritt S108).

Als Nächstes wird das erste Punktmuster durch die Musterextraktionseinheit 20A aus dem Differenzbild extrahiert (Schritt S110).

Als Nächstes wird bestimmt, ob das erste Punktmuster tatsächlich aus dem Differenzbild extrahiert wird oder nicht (Schritt S112). In einem Fall, in dem bestimmt wird, dass das erste Punktmuster extrahiert wird (in einem Fall von JA in Schritt S112), wird das Abstandsbild durch die Abstandsbild-Erfassungseinheit 20B basierend auf dem ersten Punktmuster, das aus dem Differenzbild extrahiert wird, erfasst (Schritt S118).

In einem Fall, in dem in Schritt S112 bestimmt wird, dass das erste Punktmuster nicht extrahiert wird (in einem Fall von NEIN in Schritt S112), wird bestimmt, ob die Variable i zum Identifizieren des Codes gleich der Anzahl von Codes N ist oder nicht (Schritt S113). In einem Fall von NEIN in Schritt S113 wird die Variable i inkrementiert (i = i + 1) (Schritt S114), und der Prozess kehrt zu Schritt S104 zurück. Dann wird der nächste Code erfasst und die Schritte S106 bis S110 werden wiederholt.

Die CPU 20 bestimmt, ob die Abstandsbilderfassung fortgesetzt werden soll oder nicht (Schritt S120). In einem Fall, in dem bestimmt wird, die Abstandsbilderfassung fortzusetzen, (in einem Fall von JA in Schritt S120) bleibt in diesem Beispiel die Variable i zum Identifizieren des Codes unverändert und die Schritte S104 bis S118 werden wiederholt. In einem Fall, in dem bestimmt wird, die Abstandsbilderfassung nicht fortzusetzen, (in einem Fall von NEIN in Schritt S120) endet diese Verarbeitung. Diese Verarbeitung ist die Abstandsbilderfassung in dem Videomodus und endet in einem Fall, in dem der Verschlussknopf 11 erneut mit einem Druck betätigt wird.

In einem Fall, in dem das erste Punktmuster mit allen Codes nicht aus dem Differenzbild extrahiert wird, wird eine weitere Verarbeitung durch die CPU 20 ausgeführt (Schritt S130). Normalerweise kann, da das erste Punktmuster extrahiert wird, der Schritt S130 eine Fehlerverarbeitung sein.

<Zweite Ausführungsform>

Die interne Konfiguration einer Abstandsbild-Erfassungsvorrichtung 100 einer zweiten Ausführungsform wird unter Bezugnahme auf 11 beschrieben. Nachfolgend wird hauptsächlich ein Unterschied zu der Abstandsbild-Erfassungsvorrichtung 10 der ersten Ausführungsform, die in 3 gezeigt ist, beschrieben, und der Inhalt, der bereits in der ersten Ausführungsform beschrieben ist, wird nicht wiederholt.

Die Lichtmodulationseinheit 22 dieser Ausführungsform moduliert die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Punktmusters mit einem zufälligen Code.

Die Lichtmodulationseinheit 22 enthält eine Codeerzeugungseinheit 22B, die einen zufälligen Code erzeugt. Die Lichtmodulationseinheit 22 moduliert das erste Punktmuster unter Verwendung des von der Codeerzeugungseinheit 22B erzeugten zufälligen Codes.

12 ist ein Ablaufdiagramm, das den Ablauf der Verarbeitung eines Beispiels eines Abstandsbild-Erfassungsverfahrens der zweiten Ausführungsform zeigt, und stellt in erster Linie den Ablauf der Verarbeitung dar, der unter der Steuerung der CPU 20 gemäß einem Programm ausgeführt wird. Diese Verarbeitung ist die Abstandsbild-Erfassungsverarbeitung in dem Videomodus und startet beispielsweise in einem Fall, in dem der Verschlussknopf 11 mit einem Druck betätigt wird.

Zuerst erzeugt (erfasst) die Codeerzeugungseinheit 22B einen zufälligen Code als einen Code, der die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Punktmusters angibt (Schritt S204). Ein zufälliger Code kann durch Speichern von zufälligen Codes in der Speichereinheit 32 im Voraus und Lesen eines Zufallscodes aus der Speichereinheit 32 erfasst werden.

Als Nächstes wird die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Punktmusters durch die Lichtmodulationseinheit 22 mit dem zufälligen Code moduliert, das erste Punktmuster wird von der Projektionseinheit 12 auf das Objekt innerhalb der Abstandsmessungsbereichs projiziert und das Objekt innerhalb des Abstandsmessbereichs wird von der Abbildungseinheit 14 synchronisiert mit der Projektionszeitspanne und der Nicht-Projektionszeitspanne des ersten Punktmusters abgebildet (Schritt S206). Mehrere aufgenommene Bilder, die das erste Punktmuster enthalten, das von dem Objekt reflektiert wird, werden von der Abbildungseinheit 14 ausgegeben. Mehrere aufgenommene Bilder enthalten ein erstes aufgenommenes Bild, das durch Abbilden in der Projektionszeitspanne des ersten Punktmusters erzeugt wird, und ein zweites aufgenommenes Bild, das durch Abbilden in der Nicht-Projektionszeitspanne des ersten Punktmusters erzeugt wird.

Schritt S208 und Schritt S210 stimmen mit Schritt S108 und Schritt S110 der ersten Ausführungsform, die in 10 gezeigt ist, überein und eine Beschreibung davon wird nicht wiederholt.

Es wird bestimmt, ob das erste Punktmuster tatsächlich aus dem Differenzbild extrahiert wird oder nicht (Schritt S212), und in einem Fall, in dem bestimmt wird, dass das erste Punktmuster extrahiert wird, (in einem Fall von JA in Schritt S212) wird ein Abstandsbild durch die Abstandsbild-Erfassungseinheit 20B basierend auf dem ersten Punktmuster, das aus dem Differenzbild extrahiert wird, erfasst (Schritt S218).

In einem Fall, in dem in Schritt S112 bestimmt wird, dass das erste Punktmuster nicht extrahiert wird, (in einem Fall von NEIN in Schritt S212) kehrt der Prozess zu Schritt S204 zurück. Dann wird der nächste zufällige Code erfasst und die Schritte S206 bis S210 werden wiederholt.

Die CPU 20 bestimmt, ob die Abstandsbilderfassung fortgesetzt werden soll oder nicht (Schritt S220). In einem Fall, in dem bestimmt wird, die Abstandsbildaufnahme fortzusetzen, (in einem Fall von JA in Schritt S220) werden die Schritte S204 bis S218 wiederholt. In einem Fall, in dem bestimmt wird, die Abstandsbildaufnahme nicht fortzusetzen, (in einem Fall von NEIN in Schritt S220) endet diese Verarbeitung. Diese Verarbeitung ist die Abstandsbilderfassung in dem Videomodus und endet in einem Fall, in dem der Verschlussknopf 11 erneut mit einem Druck betätigt wird.

<Modulationsstartsteuerung>

Obwohl zum besseren Verständnis dieser Ausführungsform ein Fall einer Modulation unter Verwendung eines Codes unabhängig von der Anwesenheit oder Abwesenheit der Projektion des zweiten Punktmusters aus einer weiteren Vorrichtung als Beispiel unter Bezugnahme auf 10 und 12 beschrieben ist, ist die Erfindung nicht auf einen solchen Fall beschränkt. Es ist bevorzugt, dass das erste Punktmuster nicht mit einem Code moduliert wird, wenn das zweite Punktmuster von keiner weiteren Vorrichtung projiziert wird.

Zunächst wird eine Projektion des ersten Punktmusters durch die Projektionseinheit 12 in Dauerstrichform durchgeführt und in einem Fall, in dem die Bestimmungseinheit 20C bestimmt, dass das zweite Punktmuster nicht in einem aufgenommenen Bild enthalten ist (das heißt ist in einem Fall, in dem bestimmt wird, dass das zweite Punktmuster nicht von einer weiteren Vorrichtung projiziert wird), wird ein Abstandsbild auf der Basis des ersten Punktmusters, das aus dem aufgenommenen Bild extrahiert wird, erfasst. In einem Fall, in dem die Bestimmungseinheit 20C bestimmt, dass das zweite Punktmuster in dem aufgenommenen Bild enthalten ist (das heißt, in einem Fall, in dem bestimmt wird, dass das zweite Punktmuster von einer weiteren Vorrichtung projiziert wird), ist es unterdessen bevorzugt, dass die Lichtmodulationseinheit 22 eine Codemodulation des Schaltens zwischen der Projektionszeitspanne und der Nicht-Projektionszeitspanne des ersten Punktmusters startet.

Es gibt verschiedene Bestimmungsaspekte, unter denen die Bestimmungseinheit 20C bestimmt, ob das zweite Muster von einer weiteren Vorrichtung projiziert wird oder nicht.

Erstens gibt es einen Aspekt, bei dem in einem Fall, in dem die Bakeninformationen, die von einer weiteren Vorrichtung gesendet werden und angeben, dass das zweite Punktmuster von einer weiteren Vorrichtung projiziert wird, von der Kommunikationseinheit 30 empfangen werden, bestimmt wird, dass das zweite Punktmuster durch eine weitere Vorrichtung projiziert wird.

Zweitens gibt es einen Aspekt, bei dem dann, wenn die Anzahl von Punkten eines Punktmusters, das aus einem aufgenommenen Bild, das von der Abbildungseinheit 14 aufgenommen wird, detektiert wird, die Anzahl von Punkten des ersten Punktmusters, das von der Projektionseinheit 12 projiziert wird, übersteigt, bestimmt wird, dass das zweite Punktmuster von einer weiteren Vorrichtung projiziert wird.

<Codelänge des Codes>

Die Codelänge ist nicht auf die in 6 gezeigten Codelängen beschränkt. In der ersten Ausführungsform ist es bevorzugt, dass mehrere Codes mit unterschiedlichen Codelängen in der Codespeichereinheit 22A gespeichert sind, die Codes zur Modulation in absteigender Reihenfolge der Codelänge verwendet werden und die Lichtmodulationseinheit 22 in einem Fall, in dem ein Muster nicht durch die Musterextraktionseinheit 20A extrahiert werden kann, eine Modulation durchführt, während der Code zu einem Code mit einer längeren Codelänge umgeschaltet wird. In der zweiten Ausführungsform ist es in einem Fall, in dem ein Muster nicht durch die Musterextraktionseinheit 20A extrahiert werden kann, bevorzugt, dass die Lichtmodulationseinheit 22 einen Code mit einer längeren Codelänge mit der Codeerzeugungseinheit 22B erzeugt und eine Modulation durchführt.

<Videomodus und Standbildmodus>

In dem Videomodus führt die Abbildungseinheit 14 eine Belichtung in einer Belichtungszeitspanne, die der Bildrate eines kontinuierlichen Abstandsbildes entspricht, durch und die Lichtmodulationseinheit 22 moduliert die Schaltzeitvorgabe von Projektion und Nicht-Projektion des ersten Punktmusters synchronisiert mit Start- und Endzeitvorgaben der Belichtungszeitspanne der Abbildungseinheit 14.

Die Erfindung ist nicht speziell auf einen Fall (Videomodus) des Erfassens des kontinuierlichen Abstandsbildes beschränkt und kann in einem Fall (Standbildmodus) als Durchführen einer Abstandsbilderfassung für ein Einzelbild ausgeführt sein.

Ein Aspekt, auf den die Erfindung anwendbar ist, ist nicht auf eine Abstandsbild-Erfassungsvorrichtung mit der einzigen Funktion des Erfassens eines Abstandsbildes beschränkt, und eine allgemeine Digitalkamera oder Videokamera, die ein Farbbild aufnehmen kann, kann eine Abstandsbild-Erfassungsfunktion aufweisen. Die Erfindung ist auch auf mobile Vorrichtungen anwendbar, die neben einer Abstandsbild-Erfassungsfunktion Funktionen (eine Anrufabwicklungsfunktion, eine Kommunikationsfunktion und andere Rechnerfunktionen) außer der Abstandsbild-Erfassungsfunktion aufweisen. Für andere Aspekte, auf die die Erfindung anwendbar ist, sind beispielsweise Mobiltelefone, Smartphones, persönliche digitale Assistenten (PDA) und tragbare Spielmaschinen beispielhaft. Nachfolgend wird ein Beispiel eines Smartphones beschrieben, auf das die Erfindung anwendbar ist.

<Konfiguration des Smartphones>

13 ist eine perspektivische Ansicht, die das Erscheinungsbild eines Smartphones 500 zeigt, das eine Ausführungsform einer Abstandsbild-Erfassungsvorrichtung ist.

Das in 13 gezeigte Smartphone 500 weist ein flaches plattenförmiges Gehäuse 502 auf und enthält eine Anzeigeeingabeeinheit 520, in der eine Anzeigetafel 521 als Anzeigeeinheit und ein Bedienfeld 522 als Eingabeeinheit auf einer Oberfläche des Gehäuses 502 integriert sind. Das Gehäuse 502 enthält einen Lautsprecher 531, ein Mikrofon 532, eine Bedienungseinheit 540, eine Kameraeinheit 541 und eine Projektionseinheit 542. Die Konfiguration des Gehäuses 502 ist nicht darauf beschränkt und beispielsweise kann eine Konfiguration, in der die Anzeigeeinheit und die Eingabeeinheit unabhängig voneinander sind, verwendet werden, oder es kann eine Konfiguration mit einer Faltstruktur oder einem Schiebemechanismus verwendet werden.

14 ist ein Blockdiagramm des in 13 gezeigten Smartphones 500. Wie in 14 gezeigt enthält das Smartphone 500 als Hauptkomponenten eine Drahtloskommunikationseinheit 510, eine Anzeigeeingabeeinheit 520, eine Anrufabwicklungseinheit 530, eine Bedienungseinheit 540, eine Kameraeinheit 541, die als Abbildungseinheit fungiert, eine Speichereinheit 550, eine externe Eingabe/Ausgabeeinheit 560, eine Empfangseinheit für das globale Positionierungssystem (GPS-Empfangseinheit) 570, eine Bewegungssensoreinheit 580, eine Leistungsversorgungseinheit 590 und eine Hauptsteuereinheit 501. Das Smartphone 500 hat als Hauptfunktion eine Drahtloskommunikationsfunktion zum Durchführen einer mobilen drahtlosen Kommunikation über eine Basisstationsvorrichtung und ein Mobilkommunikationsnetz.

Die Drahtloskommunikationseinheit 510 führt eine drahtlose Kommunikation mit der Basisstationsvorrichtung in dem Mobilkommunikationsnetz gemäß einem Befehl der Hauptsteuereinheit 501 durch. Unter Verwendung der drahtlosen Kommunikation kann ein Senden und Empfangen von verschiedenen Arten von Dateidaten wie beispielsweise Musikdaten, Bilddaten und E-Mail-Daten oder ein Empfangen von Webdaten, Streamingdaten oder dergleichen durchgeführt werden.

Die Anzeigeeingabeeinheit 520 ist ein sogenanntes Berührungsfeld, das Bilder (Standbilder und Videos), Textinformationen oder dergleichen anzeigt, um visuell Informationen an den Anwender zu übermitteln, die Bedienung eines Anwenders auf den angezeigten Informationen unter der Steuerung der Hauptsteuereinheit 501 detektiert und die Anzeigetafel 521 und das Bedienfeld 522 enthält. In einem Fall, in dem ein erzeugtes dreidimensionales Bild betrachtet wird, ist es bevorzugt, dass die Anzeigetafel 521 eine dreidimensionale Anzeigetafel ist.

Die Anzeigetafel 521 verwendet eine Flüssigkristallanzeige (LCD), eine organische Elektrolumineszenzanzeige (OELD) oder dergleichen als Anzeigevorrichtung.

Das Bedienfeld 522 ist eine Vorrichtung, die so angeordnet ist, dass ein auf einer Anzeigefläche der Anzeigetafel 521 angezeigtes Bild sichtbar ist, und detektiert eine oder mehrere Koordinaten gemäß einer Betätigung mit einem Finger eines Anwenders oder einem Griffel. In einem Fall, in dem die Vorrichtung mit dem Finger des Anwenders oder dem Griffel betätigt wird, wird ein aufgrund der Betätigung erzeugtes Detektionssignal an die Hauptsteuereinheit 501 ausgegeben. Als Nächstes detektiert die Hauptsteuereinheit 501 eine Betätigungsposition (Koordinaten) auf der Anzeigetafel 521 basierend auf dem empfangenen Detektionssignal.

Wie in 13 gezeigt ist das Bedienfeld 522, obwohl die Anzeigetafel 521 und das Bedienfeld 522 des Smartphones 500 integriert sind, um die Anzeigeeingabeeinheit 520 zu bilden, so angeordnet, dass es die Anzeigetafel 521 vollständig abdeckt. In einem Fall, in dem diese Anordnung verwendet wird, kann das Bedienfeld 522 die Funktion haben, die Betätigung eines Anwenders selbst in einem Bereich außerhalb der Anzeigetafel 521 zu detektieren. Mit anderen Worten kann das Bedienfeld 522 einen Detektionsbereich (nachfolgend als Anzeigebereich bezeichnet) für einen überlagerten Abschnitt, der mit der Anzeigetafel 521 überlappt, aufweisen und einen Detektionsbereich (nachfolgend als Nichtanzeigebereich bezeichnet) für einen Außenrandabschnitt, der mit der Anzeigetafel 521 nicht überlappt, außerhalb des Anzeigebereichs aufweisen.

Obwohl die Größe des Anzeigebereichs vollständig mit der Größe der Anzeigetafel 521 übereinstimmen kann, müssen die Größe des Anzeigebereichs und die Größe der Anzeigetafel 521 nicht notwendigerweise miteinander übereinstimmen. Das Bedienfeld 522 kann zwei empfindliche Bereiche aufweisen, die einen Außenrandabschnitt und einen Innenabschnitt, der sich von dem Außenrandabschnitt unterscheidet, enthalten. Die Breite des Außenrandabschnitts ist entsprechend der Größe des Gehäuses 502 oder dergleichen in angemessener Weise ausgebildet. Als ein Positionsdetektionssystem, das in dem Bedienfeld 522 verwendet wird, sind ein Matrixschaltsystem, ein Widerstandsfilmsystem, ein System mit akustischen Oberflächenwellen, ein Infrarotsystem, ein elektromagnetisches Induktionssystem, ein elektrostatisches Kapazitätssystem und dergleichen beispielhaft aufgelistet und ein beliebiges System kann verwendet werden.

Die Anrufabwicklungseinheit 530 enthält den Lautsprecher 531 und das Mikrofon 532, wandelt die Sprache der Anwendereingabe durch das Mikrofon 532 in von der Hauptsteuereinheit 501 verarbeitbare Sprachdaten um und gibt Sprachdaten an die Hauptsteuereinheit 501 aus oder decodiert Sprachdaten, die von der Drahtloskommunikationseinheit 510 oder der externen Eingabe/Ausgabeeinheit 560 empfangen werden, und gibt eine Sprache aus dem Lautsprecher 531 aus. Wie in 13 gezeigt können beispielsweise der Lautsprecher 531 und das Mikrofon 532 auf der gleichen Oberfläche wie der Oberfläche, auf der die Anzeigeeingabeeinheit 520 vorgesehen ist, montiert sein.

Die Bedienungseinheit 540 ist eine Hardwaretaste, die einen Tastenschalter oder dergleichen verwendet, und empfängt einen Befehl von dem Anwender. Beispielsweise ist die Bedienungseinheit 540 ein Drucktastenschalter, der auf einer unteren Oberfläche unterhalb der Anzeigeeinheit des Gehäuses 502 des Smartphones 500 montiert ist, und wird in einem Fall, in dem er mit einem Finger oder dergleichen gedrückt wird, eingeschaltet und durch eine Wiederherstellungskraft der Tafel oder dergleichen in einen Fall, in dem der Finger gelöst wird, in einen Auszustand versetzt.

Die Speichereinheit 550 speichert ein Steuerprogramm oder Steuerdaten der Hauptsteuereinheit 501, Adressdaten, die dem Namen, der Telefonnummer und dergleichen eines Kommunikationspartners zugeordnet sind, Daten von gesendeter und empfangener elektronischer Post, durch Webbrowsing heruntergeladene Webdaten und heruntergeladene Inhaltsdaten und speichert vorübergehend Streamingdaten oder dergleichen. Die Speichereinheit 550 besteht aus einer internen Speichereinheit 551, die in dem Smartphone eingebettet ist, und einer externen Speichereinheit 552 mit einem Schlitz für einen entfernbaren externen Speicher. Die interne Speichereinheit 551 und die externe Speichereinheit 552, die die Speichereinheit 550 bilden, sind jeweils unter Verwendung eines Speichers (beispielsweise einer Micro-SD-Speichers (eingetragenes Warenzeichen)) wie beispielsweise eines Flashspeicher-Typs, eines Festplatten-Typs, eines Multimediakarten-Mikrotyps oder eines Kartentyps oder eines Speichermediums wie z. B. eines Direktzugriffsspeichers (RAM) oder eines Nur-Lese-Speichers (ROM) verwirklicht.

Die externe Eingabe-/Ausgabeeinheit 560 spielt die Rolle einer Schnittstelle mit allen externen Vorrichtungen, die mit dem Smartphone 500 verbunden sind, und ist für eine direkte oder indirekte Verbindung mit anderen externen Vorrichtungen durch Kommunikation oder dergleichen (z. B. einen universellen seriellen Bus oder dergleichen) oder ein Netz (z. B. das Internet, ein drahtloses lokales Netz (LAN), Bluetooth (eingetragenes Warenzeichen), Hochfrequenzidentifikation (RFID), Infrarotdatenverknüpfung (IrDA), Ultra Wideband (UWB) (eingetragenes Warenzeichen), ZigBee (eingetragenes Warenzeichen) oder dergleichen vorgesehen.

Die mit dem Smartphone 500 verbundenen externen Vorrichtungen sind beispielsweise eine drahtgebundene/drahtlose Sprechgarnitur, eine drahtgebundene/drahtlose externe Ladevorrichtung, ein drahtgebundener/drahtloser Datenanschluss, eine Speicherkarte, eine Teilnehmeridentitätsmodulkarte (SIM-Karte) oder eine Anwenderidentitätsmodulkarte (UIM-Karte), die über einen Kartensockel verbunden ist, eine externe Audio-Video-Vorrichtung, die über einen Audio-Video-Eingang/Ausgang-Anschluss (Audio-Video-I/O-Anschluss) verbunden ist, eine externe Audio-Video-Vorrichtung, die drahtlos verbunden ist, ein Smartphone, das in einer drahtgebundenen oder drahtlosen Weise verbunden ist, ein PC, der in einer drahtgebundenen/drahtlosen Weise verbunden ist, ein PDA, der in einer drahtgebundenen/drahtlosen Weise verbunden ist, ein Kopfhörer und dergleichen. Die externe Eingabe-/Ausgabeeinheit kann von den externen Vorrichtungen gesendete Daten an die jeweiligen Komponenten in dem Smartphone 500 übertragen oder Daten in dem Smartphone 500 an die externen Vorrichtungen senden.

Die GPS-Empfangseinheit 570 empfängt GPS-Signale, die von den GPS-Satelliten ST1 bis STn gesendet werden, gemäß einem Befehl der Hauptsteuereinheit 501, führt eine Positionierungsberechnungsverarbeitung auf der Basis mehrerer empfangener GPS-Signale aus und detektiert die Position des Smartphones 500 mit einem Breitengrad, Längengrad und einer Höhe. Wenn Positionsinformationen von der Drahtloskommunikationseinheit 510 oder der externen Eingabe-/Ausgabe-Einheit 560 (beispielsweise einem drahtlosen LAN) erfasst werden können, kann die GPS-Empfangseinheit 570 die Position unter Verwendung der Positionsinformationen detektieren.

Die Bewegungssensoreinheit 580 enthält beispielsweise einen Drei-Achsen-Beschleunigungssensor oder dergleichen und detektiert die physische Bewegung des Smartphones 500 gemäß einem Befehl der Hauptsteuereinheit 501. Die Bewegungsrichtung oder Beschleunigung des Smartphones 500 wird durch Detektieren der physischen Bewegung des Smartphones 500 detektiert. Das Detektionsergebnis wird an die Hauptsteuereinheit 501 ausgegeben.

Die Leistungsversorgungseinheit 590 liefert elektrische Energie, die in einer Batterie (nicht gezeigt) gespeichert ist, gemäß einem Befehl der Hauptsteuereinheit 501 an die jeweiligen Einheiten des Smartphones 500.

Die Hauptsteuereinheit 501 ist mit einem Mikroprozessor versehen, arbeitet gemäß dem in der Speichereinheit 550 gespeicherten Steuerprogramm oder dort gespeicherten Steuerdaten und steuert die jeweiligen Einheiten des Smartphones 500 integral. Die Hauptsteuereinheit 501 weist eine Mobilkommunikations-Steuerfunktion zum Steuern jeweiliger Einheiten eines Kommunikationssystems, um eine Sprachkommunikation oder eine Datenkommunikation durch die Drahtloskommunikationseinheit 510 durchzuführen, und eine Anwendungsverarbeitungsfunktion auf.

Die Anwendungsverarbeitungsfunktion wird durch die Hauptsteuereinheit 501 umgesetzt, die gemäß der in der Speichereinheit 550 gespeicherten Anwendungssoftware arbeitet. Die Anwendungsverarbeitungsfunktion ist beispielsweise eine Infrarotkommunikationsfunktion zum Steuern der externen Eingabe-/Ausgabeeinheit 560 zum Durchführen einer Datenkommunikation mit einer Vorrichtung, die dem Smartphone 500 zugewandt ist, eine E-Mail-Funktion zum Senden und Empfangen von E-Mails oder eine Webbrowsing-Funktion zum Durchsuchen von Webseiten oder dergleichen.

Die Hauptsteuereinheit 501 weist eine Bildverarbeitungsfunktion zum Anzeigen von Video auf der Anzeigeeingabeeinheit 520 oder dergleichen basierend auf Bilddaten (Standbild- oder Videodaten) wie beispielsweise empfangenen Daten oder heruntergeladenen Streamingdaten auf. Die Bildverarbeitungsfunktion bezieht sich auf eine Funktion der Hauptsteuereinheit 501, die Bilddaten decodiert, eine Bildverarbeitung an dem Decodierergebnis durchführt und ein Bild auf der Anzeigeeingabeeinheit 520 anzeigt.

Die Hauptsteuereinheit 501 führt eine Anzeigesteuerung an der Anzeigetafel 521 und eine Bedienungsdetektionssteuerung zum Detektieren einer Bedienung eines Anwenders über die Bedienungseinheit 540 und das Bedienfeld 522 aus.

Bei der Ausführung der Anzeigesteuerung zeigt die Hauptsteuereinheit 501 ein Piktogramm zum Aktivieren der Anwendungssoftware oder eine Softwaretaste wie z. B. eine Laufleiste an oder zeigt ein Fenster zum Erstellen von E-Mails an. Die Laufleiste bezieht sich auf eine Softwaretaste zum Empfangen eines Befehls, um einen Anzeigeabschnitt eines Bildes zu bewegen, das zu groß ist, um in den Anzeigebereich der Anzeigetafel 521 zu passen.

Bei der Ausführung der Bedienungsdetektionssteuerung detektiert die Hauptsteuereinheit 501 eine Bedienung eines Anwenders über die Bedienungseinheit 540, empfängt eine Betätigung auf dem Piktogramm oder eine Eingabe von Text in einer Eingabespalte des Fensters über das Bedienfeld 522 oder empfängt eine Rollanforderung für ein Anzeigebild über die Laufleiste.

Zusätzlich weist die Hauptsteuereinheit 501 bei der Ausführung der Bedienungsdetektionssteuerung eine Berührungsfeldsteuerfunktion zum Bestimmen, ob eine Betätigungsposition auf dem Bedienfeld 522 der überlagerte Abschnitt (Anzeigebereich), der mit der Anzeigetafel 521 überlappt, ist oder der Außenrandabschnitt (Nichtanzeigebereich), der nicht mit der Anzeigetafel 521 überlappt, außerhalb des Anzeigebereichs ist, und zum Steuern des empfindlichen Bereichs des Bedienfeldes 522 oder der Anzeigeposition der Softwaretaste auf.

Die Hauptsteuereinheit 501 kann eine Gestenbedienung auf dem Bedienfeld 522 detektieren und kann eine im Voraus festgelegte Funktion gemäß der detektierten Gestenbedienung ausführen. Die Gestenbedienung ist kein herkömmlicher einfacher Berührungsvorgang, sondern bedeutet eine Bedienung, um eine Spur mit einem Finger oder dergleichen zu erzeugen, eine Bedienung, um gleichzeitig mehrere Positionen zu bezeichnen, oder eine Bedienung, um eine Spur für mindestens eine von mehreren Positionen durch Kombinieren der oben beschriebenen Bedienungen zu erzeugen.

Die Kameraeinheit 541 ist eine Abbildungsvorrichtung, die eine elektronische Abbildung unter Verwendung eines Bildsensors wie etwa eines Komplementär-Metall-Oxid-Halbleiters (CMOS) oder einer ladungsgekoppelten Vorrichtung (CCD) durchführt.

In diesem Fall ist es bevorzugt, dass die Kameraeinheit 541 mehrere Lichtempfangselemente mit voneinander verschiedenen Wellenlängenbandbreiten, die in einem Bildsensor bereitgestellt sind, und Lichtempfangselemente (R-Pixel, G-Pixel und B-Pixel) zur Farbabbildung gemischt und in einer zweidimensionalen Weise in einem Bildsensor angeordnet aufweist. Das heißt, dass als Bildsensor der Kameraeinheit 541 ein Bildsensor vorgesehen ist, in dem ein R-Pixel, ein G-Pixel und ein B-Pixel, die mit RGB-Farbfiltern zur Farbabbildung versehen sind, und ein Pixel (ein Pixel mit einer Empfindlichkeit nur für Projektionslicht), das mit einem Bandpassfilter oder einem Sperrfilter zur Abstandsbilderfassung versehen ist, vorzugsweise verwendet werden.

Die Projektionseinheit 542 weist eine LED auf und projiziert ein erstes Punktmuster von Licht zu dem Zeitpunkt des Erfassens des Abstandsbildes. In einem Fall des Smartphones 500 mit einer Funktion für optische Kommunikation kann die LED als Lichtquelle für die optische Kommunikation verwendet werden.

Unter der Steuerung der Hauptsteuereinheit 501 kann die Kameraeinheit 541 Bilddaten von sichtbarem Licht, die durch Abbilden erhalten werden, in komprimierte Bilddaten in beispielsweise einem JPEG-Format oder dergleichen umwandeln und kann komprimierte Bilddaten in der Speichereinheit 550 aufzeichnen oder komprimierte Bilddaten durch die externe Eingabe-/Ausgabeeinheit 560 oder die Drahtloskommunikationseinheit 510 ausgeben und in ähnlicher Weise das Abstandsbild, das den Abstand des Objekts angibt, in der Speichereinheit 550 aufzeichnen oder das Abstandsbild über die externe Eingabe-/Ausgabeeinheit 560 oder die Drahtloskommunikationseinheit 510 ausgeben. In dem in 13 gezeigten Smartphone 500 ist, obwohl die Kameraeinheit 541 auf derselben Oberfläche wie die Anzeigeeingabeeinheit 520 montiert ist, die Montageposition der Kameraeinheit 541 nicht darauf beschränkt und die Kameraeinheit 541 kann auf einer Rückfläche der Anzeigeeingabeeinheit 520 montiert sein oder mehrere Kameraeinheiten 541 können montiert sein. In einem Fall, in dem mehrere Kameraeinheiten 541 montiert sind, kann die Kameraeinheit 541 zum Abbilden umgeschaltet werden, um alleine eine Abbildung durchzuführen, oder es können mehrere Kameraeinheiten 541 gleichzeitig verwendet werden, um eine Abbildung durchzuführen.

Die Kameraeinheit 541 kann für verschiedene Funktionen des Smartphones 500 verwendet werden. Beispielsweise kann ein von der Kameraeinheit 541 erfasstes Bild auf der Anzeigetafel 521 angezeigt werden oder ein Bild in der Kameraeinheit 541 kann als eine Bedienungseingabe des Bedienfeldes 522 verwendet werden. In einem Fall, in dem die GPS-Empfangseinheit 570 die Position detektiert, kann die Position unter Bezugnahme auf ein Bild von der Kameraeinheit 541 detektiert werden. Zusätzlich kann die Richtung der optischen Achse der Kameraeinheit 541 des Smartphones 500 bestimmt werden oder eine aktuelle Nutzungsumgebung kann unter Bezugnahme auf ein Bild von der Kameraeinheit 541 bestimmt werden, ohne den Drei-Achsen-Beschleunigungssensor oder den Drei-Achsen-Beschleunigungssensor zu verwenden. Natürlich kann ein Bild von der Kameraeinheit 541 innerhalb der Anwendungssoftware verwendet werden.

Beispielsweise kann die Projektionseinheit 542 eine Projektionseinheit in der Erfindung bilden. Beispielsweise kann die Kameraeinheit 541 eine Abbildungseinheit in der Erfindung bilden. Beispielsweise kann die Hauptsteuereinheit 501 eine Bestimmungseinheit, eine Differenzbild-Erzeugungseinheit, eine Musterextraktionseinheit und eine Abstandsbild-Erfassungseinheit in der Erfindung bilden. Obwohl diese nicht gezeigt sind, sind bei der Erfindung eine Lichtmodulationseinheit und eine Bakeninformations-Empfangseinheit in dem Smartphone 500 bereitgestellt.

Die Erfindung ist nicht auf die oben beschriebenen Ausführungsformen beschränkt und es muss nicht erwähnt werden, dass verschiedene Abwandlungen vorgenommen werden können, ohne vom Gedanken der Erfindung abzuweichen

Bezugszeichenliste

  • 10: Abstandsbild-Erfassungsvorrichtung, 12: Projektionseinheit, 14: Abbildungseinheit, 16: A/D-Umsetzer, 18: Schnittstellenschaltung, 20: CPU, 20A: Musterextraktionseinheit, 20B: Abstandsbild-Erfassungseinheit, 20C: Bestimmungseinheit, 20D: Differenzbild-Erzeugungseinheit, 22: Lichtmodulationseinheit, 22A: Codespeichereinheit, 22B: Codeerzeugungseinheit, 26: Ansteuereinheit, 28: Bedienungseinheit, 30: Kommunikationseinheit, 32: Speichereinheit