반응형

자율주행 자동차/인지 10

Python Lidar - Morai와 연동하여 clustering하기 - 준비 중

https://rerun.io/examples/robotics/lidar https://rerun.io/examples/robotics/lidarLidar Visualize the LiDAR data from the nuScenes dataset . Points3D This example demonstrates the ability to read and visualize LiDAR data from the nuScenes dataset, which is a public large-scale dataset specifically designed for autonomous driving. The screrun.iohttps://velog.io/@jinhoyoho/%EC%9E%90%EC%9C%A8%EC%A3%..

라이다란 - LiDAR 기초, 라바콘 인지, 딥러닝

이 것이 라이라의 기본적인 원리이다.레이저가 발사하고 복귀한 시간을 가지고 우린 거리를 구할 수 있다. 거리 = 시간 / 2 * 빛의 속도 - TOF 이렇게 구한 거리를 가지고 Point Cloud를 만들 수 있고, 그 정보를 ROS를 통해 Python이나 matlab에서 사용하고 있다. 우리는 32채널 라이다를 사용한다. 1.수직 해상도 (Vertical Resolution): 32채널2.수평 해상도 (Horizontal Resolution): 512, 1024, 또는 20483.범위 (Range): 120m4.수직 시야각 (Vertical Field of View): 33.2° (±16.6°)5.수직 각도 해상도 (Vertical Angular Resolution): 0.53° - 1° (여러 옵션)..

Lidar Point Cloud Segmentation - matlab

일단 라이다를 이동 못 하는 상황에선 rosbag파일로 진행해봤습니다...rosbag play -l ~/Desktop/lanerosbag/2024-02-14-15-18-47.bag이 전에 lanedetection을 시도하면서 저장했던 losbag%clear; close all; clc;rosshutdown;rosinit('http://localhost:11311')tftree = rostf;pause(3);roi = [0, 18, -18, 18, -2, 2];params = lidarParameters('OS1Gen1-64',1024);lidarSub = rossubscriber('/ouster/points', "DataFormat", "struct");기존에 진행했던 것과 똑같습니다.ROI는 여기서 ..

NVIDIA의 생성형 AI를 통한 End to End 자율주행

https://youtu.be/wfpLLSz5iWYhttps://blogs.nvidia.co.kr/blog/auto-research-cvpr-2024/?linkId=100000269377113&fbclid=IwZXh0bgNhZW0BMAABHbRUeNIJXmj7wYNo_bgUdeZHWWNApMyQwujM2NT7FN_E3wC8VWVdzg1KLQ_aem_wq4cKtWOAcAGpcxubQDv_w NVIDIA Research, 엔드투엔드 주행을 위한 CVPR 오토노머스 그랜드 챌린지 우승 - NVIDIA Blog Korea자율주행 자동차 개발을 가속화하기 위해 힘쓰고 있는 NVIDIA가 이번 주 미국 시애틀에서 열린 컴퓨터 비전 및 패턴 인식(CVPR) 컨퍼런스에서 오토노머스 그랜드 챌린지 우승자로 선정되었습니다..

차선, 정지선 Detection

차선 : 차가 다니는 길인 차로의 경계를 그어주는 선이다.사람도 운전할 때 운전자 시야에 있는 차선을 보고 주행 경로를 판단하므로 중요하다!대회에 나오는 차선, 정지선 인지가 필수인 구간이다.Lane Keeping Assist System의 약자로 차선 유지를 도와주는 시스템이다. 차선을 넘어가면 경고가 나오거나, 스티어링 휠을 제어하여 차선 내부로 돌아가게 도와준다.대회에서도 차선 유지는 필수다. 인지된 차선의 좌표는 아래와 같이 활용된다.Camera를 통해 얻어온 차선의 2D 좌표(x,y)에는 IPM이 된 좌표이므로 역 변환하여 원본 사진 좌표 값으로 바꾼 뒤, Camera Calibration 값을 활용하여 Camera 기준 좌표로 변환합니다. Camera 기준 좌표는 ROS TF를 통해 base_..

차선 인지 발표 준비

자기 소개 차선, 정지선 인식 중요성감점이 있다. LKS신호등 방식 2라이다 - 처리 속도가 오래 걸린다. - 라이다 포인트 개수가 훨씬 많다. 카메라 - 비교적 처리 속도가 빠르다.카메라 방식2인공지능 - 컴퓨터 처리 능력상 느려  영상처리 이 둘을 수치적으로 비교 - 할 수 있으면 하기차선 검출결과 사용하는 방식카메라 칼리를 통해 -> erp base 좌표로 변환  -> LKE 배달 위치 정지선 인식IPM - 버드아이 뷰행렬 변환을 위한 4개의 지점 설정 후 변환 -> 결과 == 버드아이 뷰가우시안 블러노이즈 제거를 위해 사용전후 사진 비교랑 필터 모양 정도HSV - RGB - 밝이에 따른 표현 RGB와 HSV의 비교를 통한 선택 이유 말하기이진화 - 노란색, 흰색만 남는다. == 어차피 바닥만 남겼..

라이다 활용 차선 검출 보고서

3.3.3 LiDAR 센서 기반 차선 검출 차선은 차량의 안전한 주행을 보장하기 위해 악조건 하에서도 높은 반사성을 유지하도록 설계되었다. LiDAR 센서는 이러한 차선의 반사도를 이용하여, 높은 반사율을 가진 물체를 식별함으로써 차선의 위치를 정확하게 예측할 수 있다. 이 과정에서 LiDAR의 강도 데이터가 핵심적으로 활용된다. Lidar 차선 추출 과정 3.3.3.1 Intensity-based histogram 추출 LiDAR로부터 수집된 포인트 클라우드 데이터에서, y축을 기준으로 일정 구간으로 분할하여 각 구간별 강도 (intensity)의 합을 계산한다. 이 때, 강도의 합이 가장 높은 구간을 차선의 위치로 예측한다. 차선 폭의 기준에 부합하는 값이 검출되면 해당 위치를 차선으로 확정한다. 만..

보고서 작성에 따른 코드 저장 - 라바콘 인지 과정

clear; close all; clc; rosshutdown; rosinit('http://localhost:11311') tftree = rostf; pause(3); % Parameter//============================================================ load('wheelbase.mat'); Ld = 1.0; v = 1.5; delta = 0.3; roi = [0, 7, -4, 4, -2, 4]; clusterThreshold = 1.0; % Cluster distance cuboidTreshold = 0.01; % Ignore smaller than 0.003 cuboid (cone: 0.0215) waypointTreshold = 3.0; % mak..

자율주행 - 라이더를 통한 차선 탐지

또다시 자율주행을 시작하게 되었네요 ㅎㅎ... 이번에는 제가 인공지능쪽에 흥미가 생긴터라 인지팀으로 참여하게 되었습니다. 바로 시작한 일은 차선탐지인데 비전으로만 하고 있더라고요. 미션중에 어두운 부분도 있다고 하니 라이더를 통한 차선 인지를 시작하기로 했습니다. https://kr.mathworks.com/help/lidar/ug/lane-detection-in-3d-lidar-point-cloud.html Lane Detection in 3-D Lidar Point Cloud - MATLAB & Simulink - MathWorks 한국 이 예제의 수정된 버전이 있습니다. 사용자가 편집한 내용을 반영하여 이 예제를 여시겠습니까? kr.mathworks.com 모든 내용은 여기서 왔고, 살짝 불편한점이..

728x90
728x90