일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- Text-to-Speech
- Google API
- google cloud
- yolo
- 사무자동화 #Selenium
- objectdetection
- processstart
- pyautogui
- 업무자동화
- ironpython
- Text To Speech
- 사무자동화
- YOLOv7
- pypdf2
- YOLOv5
- pythonnet
- DeepLearning
- 파이썬 #업무자동화 #python
- computervision
- pdf merge
- Today
- Total
목록Computer Vision/3D Vision (4)
Doarchive
Disparity Map 두 이미지 에서의 feature point 의 위치 차이를 parallax 하게 표현한것 Disparity Map을 통해 Depth Map 을 계산한다 Depth Map 각 픽셀의 3번째 좌표가 Grey Value로 표현 물리적 높이가 아닌 광삼각층략의 레이져라인 프로파일의 변위를 표현 Point Cloud x,y,z 공간정보를 가진 점들의 집합 Mesh Point Cloud Data 를 연결하여 표현 Zmap 2.5D Image 픽셀 값 + Depth 값 기준면에 대해 Point Cloud를 투사한 것 메트릭 좌표계를 사용하며 왜곡이 없음
Rotation metrix, Tranformation Metrix 매칭점들 사이의 회전 이동 관계 Essential Metrix 3D 공간상의 한 점 P가 영상 A에서는 p에 투영되고, 영상 B에서는 p'에 투영됐다고 하면 두 영상 좌표 p와 p’ 사이의 관계 Essential Matrix는 정규화된 이미지 평면에서의 매칭 쌍들 사이의 기하학적 관계를 설명하는 행렬 Fundamental Metrix 카메라 파라미터까지 포함한 두 이미지의 실제 픽셀(pixel) 좌표 사이의 기하학적 관계 왼쪽 카메라에서 촬영된 영상에서의 점이 오른쪽 카메라에서 촬영된 영상에 어디로 투영될지 알수 있음 OpenCV 의 stereoCalibrate Method CV_EXPORTS_W double stereoCalibrate..
눈으로 보는 세상-> 3차원 카메라 -> 2차원 즉 카메라로 영상을 촬영한다는 것은 3차원의 점들이 2차원에 투영되는 과정이다 이때 3차원 점들이 영상에 투영된 위치를 구하거나, 이미지 좌표로부터 3차원 공간 좌표를 알아내려면 3차원의 점들이 2차원에 투영 될때 영향을 미친 여러 요인들을 제거해 줘야 정확한 계산이 가능해 지는데 이렇게 영향을 미친 요인들은 크게 (1)내부 파라메터와 (2)외부 파라메터 두개로 나눌수 있다 각각의 파라메터에는 다음과 같은 것들이 있다 (1)내부 파라메터 -초점거리(focal length): 렌즈 중심과 센서 사이의 거리 -주점(principal point): 렌즈의 중심으로 부터 수직으로 이어진 이미지 센서의 좌표 -비대칭계수(skew coefficient) (2)외부 파..
Extrinsic Calibration World coordinate와 Camera coordinate의 관계 Intrinsic Calibration 렌즈와 이미지 센서와의 관계에서 발생한 초점거리, 주점 등의 영향 파악 방사형 왜곡과 접선형 왜곡 제거 Stereo Calibration Rotation Matrix,Translation Matrix - 카메라가 실제 원점으로부터 얼마나 이동해 있고 회전해 있는지 Essential Matrix - Calibration 된 카메라들 사이의 관계 Fundamental Matrix-카메라1에서 촬영된 영상에서의 점이 오른쪽 카메라2에서 촬영된 영상에 어디로 투영될지