nvida drive labs 자율주행 3단층의 시작은

 자율주행에 대해 공부하면서 nvidia drive를 접하게 되었다. 작년 8월부터 처음으로 공부했다.

유튜브의 엔비디아 드라이브 랩스라는 카테고리에 그동안 개발한 상황을 보여준다.

이 영상을 보고 테슬라와 자율주행의 격차가 크지 않을 것이라는 확신을 얻었다.

완성차들은 0.01%라도 3단계 자율주행에서 사고가 나면 절대 서비스를 할 수 없다.

3단계에서는 운전 권한이 제조업체에 부여되고 그에 대한 법적 책임이 있으므로 주의가 필요하다.

https://www.youtube.com 교차점검지, 교통신호등과 교통표지판 탐지, 교차로 이해 등 다양한 기능을 취급하고 있습니다. 또한 이 모델은 주차공간인지 센서의 장애여부를 감지하는 등 다양한 과제물에 활용됩니다.

https://www.youtube.com/watch?v=HS1wV9NMLr8&feature=youtu.be 오토 하이빔 네트(Auto High Beam Net)가 자율 주행차의 전조등을 제어하고 액티브 러닝 어프로치로 어두운 곳에서의 보행자 감지 기능을 향상시킵니다. 또한 DNN은 정확한 모션 플래닝을 위해 2D 카메라 이미지를 통해 3D 거리를 추정할 수 있습니다. 엔비디아의 다양한 인지기능은 자동차 주변에서 작동합니다. 서라운드 카메라의 물체추적기능(surround camera object tracking)과 서라운드 카메라 레이더 퓨전(surround camera-radar fusion)을 장착하면 사각지대가 확실히 사라집니다.

https://www.youtube.com/watch?v=4aq13pB9s7c&feature=youtu.be 자율주행 자동차는 환경인식뿐만 아니라 도로상의 다른 행위자들이 어떻게 행동하는지 이해할 수 있어야만 안전한 확보를 계획을 세울 수 있습니다. 드라이브 랩에서는 자율 주행 자동차가 레큘런트 네트워크를 통해서 물체의 움직임에 대해서 과거에 길러 온 통찰력을 장래 예측 측정에 활용하는 구조를 제시합니다.

https://youtu.beg UJByBGmmao 엔비디아의 최근 모델과 과거 모델의 차이를 비교하며 보여주는 영상이다.바닥문자인식, 운전자 모니터랜, 서라운드 라이더를 이용한 야간주행, 파킹존 인식, https://youtu.beSdmc9bwhn54 엔비디아를 보면서 테슬라의 오토파일럿은 금방 따라잡을 수 있을 것 같았다.그들이 자랑한 ai빅 데이터는 이미지 센서와 레이더에만 한정된다.

테슬라 ceo는 영리하기 때문에 라이다와 고정밀도 없는 구조로 3단계 서비스한다고 고객과 계약하는 일은 없다고 생각한다. (3단계는 사고가 났을 때 법적인 책임을 회사가 진다는 약속이다.)

-테슬라가 3단계를 하겠다고 할 때 라이다가 있는지 지켜보자.

기존 완성차 업체들은 안전을 위해서는 절대적으로 v2x와 고정밀, 라이더, 레이더, 카메라가 결합해 운행하는 데이터가 필요하다며 이런 기술을 지속적으로 개발하고 있다.

시간이 흘러 테슬라가 라이더를 켜고 다시 빅데이터를 돌리기 시작하면 테슬라는 다른 완성차보다 더 늦어진다.

벤츠, 현대, 중국 상하이차, 니오 등이 nvida 시스템을 사용하기로 했다.완성차 자율주행은 어느 정도 시간이 흐르면 비슷한 수준이 되지 않을까.

자율주행 프로세스는 3가지가 필요하다.인지, 판단, 제어

엔비디아는 사물을 인지하고 판단하는 데 도움을 준다.

앞으로 자동차 시장은 지금의 휴대시장처럼 얼마나 싸고, 보다 안정적인 차를 제작해 공급하느냐가 관건이 될 것이다.

자동차 시장에서의 투자의 관점은, 쉐어가 「키」가 될 것 같다.