出典:産業技術総合研究所プレスリリース
AIST:スマホカメラだけで自動運転!
Auto-conduite avec juste une caméra de smartphone !
Selbstfahrend mit nur einer Smartphone-Kamera!
Self-driving with just a smartphone camera!
只用智能手機攝像頭就可以自動駕駛!
ースマホ位置センサー、VRや主観映像解析、パーソナルモビリティ自動運転に応用ー
自動運転ラボ・分析記事よりレポート
産業技術総合研究所(産総研):
カメラと慣性計測装置(IMU)を用いた位置姿勢推定システム「L-C*」を開発。2023年5月30日発表した。
カメラとIMUのみ:
スマホ内蔵の一般的なセンサースマホを利用する。今後、パーソナルモビリティの自動運転に応用する。
Visual Positioning Systemの活用:
自動運転車両の自己位置推定にVPSを活用する。従来の自己位置推定では、専用地図を用いていた。
位置姿勢推定システム「L-C*」:
今回、産総研が位置姿勢推定システム「L-C*」を開発した。3D地図とカメラ画像を照合、カメラの位置姿勢を取得する。
照明や天候、景観が変化しても、位置や姿勢の変化を検知できる。
地図と画像の照合時間を短縮:
従来、地図と画像の照合では、膨大な計算が必要だ。新たにIMUで「照合間の動きを補間する仕組み」を導入した。
照合頻度を30分の1に減らす。安価なPCでも安定して動作するVPSを実現した。
Headless Vehicle Navigation with your smartphone
産総研がレベル4を取得:
5月12日、道路交通法に基づくレベル4の特定自動運転の許可を取得。
既に2021年6月、自動運転レベル4先進モビリティサービスの諮問機関にも選出された。
https://jidounten-lab.com/u_41486
カメラと慣性計測装置(IMU)による位置測定システム
産総研:簡易センサーで高精度に位置姿勢を推定
ポイント
カメラと慣性計測装置(IMU)による位置測定システムを開発
3次元地図とカメラ画像を照合し、カメラ自身の位置を高精度測定。
IMUを組み合わせ、計算負荷を1/30まで低減。
スマホ位置センサー、VRや主観映像解析、パーソナルモビリティの自動運転に応用する。
https://www.aist.go.jp/aist_j/press_release/pr2023/pr20230529/pr20230529.html
Source : communiqué de presse de l’Institut national des sciences et technologies industrielles avancées
AIST : Auto-conduite avec juste une caméra de smartphone !
– Appliqué aux capteurs de position des smartphones, à la réalité virtuelle, à l’analyse vidéo subjective et à la conduite autonome de mobilité personnelle –
Rapport du laboratoire de conduite autonome/article d’analyse
Institut national des sciences et technologies industrielles avancées (AIST) :
Développement du système d’estimation de position et d’orientation “L-C*” à l’aide d’une caméra et d’une unité de mesure inertielle (IMU). Annoncé le 30 mai 2023.
Caméra et IMU uniquement :
Utilisez un smartphone à capteur général avec un smartphone intégré. À l’avenir, elle sera appliquée à la conduite automatique de la mobilité personnelle.
Tirer parti du système de positionnement visuel :
Utilisez VPS pour l’auto-localisation des véhicules autonomes. L’estimation conventionnelle de l’auto-position utilise une carte dédiée.
Système d’estimation de position et d’attitude “L-C*”:
Cette fois, l’AIST a développé un système d’estimation de position et d’orientation “L-C*”. La position et l’orientation de la caméra sont obtenues en faisant correspondre la carte 3D avec l’image de la caméra.
Les changements de position et de posture peuvent être détectés même lorsque l’éclairage, la météo ou le paysage changent.
Correspondance plus rapide des cartes et des images :
Traditionnellement, faire correspondre des cartes et des images nécessite une énorme quantité de calculs. Une nouvelle IMU a introduit un “mécanisme d’interpolation des mouvements entre les contrôles”.
Réduisez la fréquence d’appariement par un facteur de 30. Réalisé un VPS qui fonctionne de manière stable même sur un PC bon marché.
AIST a reçu le niveau 4 :
Le 12 mai, nous avons obtenu l’autorisation pour la conduite automatisée spécifique au niveau 4 sur la base de la loi sur la circulation routière.
Déjà en juin 2021, il a également été élu en tant que conseil consultatif pour les services de mobilité avancée de niveau 4 de conduite autonome.
https://jidouunten-lab.com/u_41486
Système de mesure de position avec caméra et unité de mesure inertielle (IMU)
AIST : estimer la position et l’orientation avec une grande précision à l’aide de capteurs simples
indiquer
Développement d’un système de mesure de position à l’aide d’une caméra et d’une unité de mesure inertielle (IMU)
La carte 3D et l’image de la caméra sont rassemblées pour mesurer la position de la caméra elle-même avec une grande précision.
Combiné avec une IMU, la charge de calcul est réduite à 1/30.
Il est appliqué aux capteurs de position des smartphones, à l’analyse vidéo VR et subjective et à la mobilité personnelle autonome.
https://www.aist.go.jp/aist_j/press_release/pr2023/pr20230529/pr20230529.html
Quelle: Pressemitteilung des National Institute of Advanced Industrial Science and Technology
AIST: Selbstfahrend mit nur einer Smartphone-Kamera!
– Angewendet auf Smartphone-Positionssensoren, VR, subjektive Videoanalyse und autonomes Fahren mit persönlicher Mobilität –
Bericht aus dem Autonomous Driving Lab/Analyseartikel
Nationales Institut für fortgeschrittene industrielle Wissenschaft und Technologie (AIST):
Entwickelte das Positions- und Orientierungsschätzungssystem „L-C*“ unter Verwendung einer Kamera und einer Trägheitsmesseinheit (IMU). Angekündigt am 30. Mai 2023.
Nur Kamera und IMU:
Verwenden Sie ein allgemeines Sensor-Smartphone mit integriertem Smartphone. Zukünftig wird es auf das automatische Fahren der persönlichen Mobilität angewendet.
Nutzung des visuellen Positionierungssystems:
Nutzen Sie VPS zur Selbstlokalisierung selbstfahrender Fahrzeuge. Bei der herkömmlichen Selbstpositionsschätzung wird eine dedizierte Karte verwendet.
Positions- und Lageschätzungssystem „L-C*“:
Diesmal hat AIST ein Positions- und Orientierungsschätzungssystem „L-C*“ entwickelt. Die Position und Ausrichtung der Kamera werden durch den Abgleich der 3D-Karte mit dem Kamerabild ermittelt.
Auch bei Licht-, Wetter- oder Landschaftsveränderungen können Positions- und Haltungsänderungen erkannt werden.
Schnellere Zuordnung von Karten und Bildern:
Traditionell erfordert der Abgleich von Karten und Bildern einen enormen Rechenaufwand. Eine neue IMU führte einen „Mechanismus zur Interpolation von Bewegungen zwischen Kontrollen“ ein.
Reduzieren Sie die Übereinstimmungshäufigkeit um den Faktor 30. Habe einen VPS realisiert, der auch auf einem preiswerten PC stabil funktioniert.
AIST erhielt Level 4:
Am 12. Mai haben wir die Erlaubnis für das automatisierte Fahren der Stufe 4 auf Grundlage der Straßenverkehrsordnung erhalten.
Bereits im Juni 2021 wurde es zudem zum Beirat für autonomes Fahren Level 4 Advanced Mobility Services gewählt.
https://jidouunten-lab.com/u_41486
Positionsmesssystem mit Kamera und Inertialmesseinheit (IMU)
AIST: Schätzen Sie Position und Ausrichtung mit hoher Präzision mithilfe einfacher Sensoren
Punkt
Entwicklung eines Positionsmesssystems mit einer Kamera und einer Inertialmesseinheit (IMU)
Die 3D-Karte und das Kamerabild werden zusammengeführt, um die Position der Kamera selbst mit hoher Präzision zu messen.
In Kombination mit einer IMU reduziert sich die Rechenlast auf 1/30.
Es wird auf Smartphone-Positionssensoren, VR- und subjektive Videoanalyse sowie selbstfahrende persönliche Mobilität angewendet.
https://www.aist.go.jp/aist_j/press_release/pr2023/pr20230529/pr20230529.html