Нов тип данни ще помогне на безпилотните автомобили да „виждат“ по-добре

Aeye – компания от Сан Франциско Бей, която разработва хардуер, софтуер и алгоритми за автономни превозни средства – обяви разработването на нов тип данни, който “ще помогне на самоуправляемите автомобили да виждат по-добре” и, като следствие от това, да се намалят енергийните им разходи. Новият тип данни съчетава пиксели от цифрови 2D камери с воксели от 3D LiDAR сензорите. Новият тип данни ще се наричат „динамични виксели“. Чрез обединяването на двата вида данни в новия вид сензорни данни с висока резолюция AEye се надява да е създала формат, чрез който автономните автомобили могат по-ефективно да оценят ситуацията въз основа на 2D визуални алгоритми. Освен това новият тип данни ще позволява на автомобилите да използват 3D и дори 4D информация за местоположението, интензитета и скоростта на обектите наоколо.

Този ефикасен нов формат е основата на нова визуална система, която е по-бърза и по-точна, като в същото време използва осем до десет пъти по-малко енергия.

AEye вярва, че интегрирането на типовете данни е от съществено значение за подобряване на възможностите на автономните превозни средства, като в същото време се намаляват разходите за използваната от тях енергия чрез по-ефективни изчисления. “Непрекъснато се спори за това дали системите за машинно зрение на база камери са по-добри – или тези, базирани на LiDAR сензорни системи”, казва основателят и главен изпълнителен директор на AEye Луис Дусан. “Нашият отговор е, че и двете са необходими – те се допълват взаимно и осигуряват по-пълен сензорен масив за изкуствени системи за възприятие. От опит знаем, че когато съчетаем камера и LiDAR механично в сензора, интеграция доставя данните по-бързо, по-ефикасно и по-точно, отколкото да се опитвате да регистрирате и подредите пикселите и вокселите при последващата обработка. Разликата е в по-добрата производителност”.

Графика: AEye

Коментари

Напиши коментар

E-mail адресът Ви няма да бъде публикуван




*