일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 파이썬 #업무자동화 #python
- ironpython
- objectdetection
- 업무자동화
- pypdf2
- yolo
- DeepLearning
- Text-to-Speech
- google cloud
- Google API
- 사무자동화 #Selenium
- YOLOv5
- pyautogui
- pdf merge
- computervision
- YOLOv7
- 사무자동화
- Text To Speech
- processstart
- pythonnet
- Today
- Total
목록Computer Vision (33)
Doarchive
해당 코드는 구글 코랩에서 작업함 https://colab.research.google.com/?hl=ko Google Colaboratory colab.research.google.com 데이터 사용한 커스텀 데이터 Data Annotation 작업은 https://app.roboflow.com/ 에서 진행 함. Sign in to Roboflow Even if you're not a machine learning expert, you can use Roboflow train a custom, state-of-the-art computer vision model on your own data. app.roboflow.com 이미지는 921장 사용 , 클래스는 2개 roboflow에서 데이터를 내보낼때 ..
1. 학습시 에러가 발생하는 경우 (train.py) KeyError: 'assets' During handling of the above exception, another exception occurred: Traceback (most recent call last): File "/content/gdrive/MyDrive/guideDetection/yolov7/train.py", line 616, in train(hyp, opt, device, tb_writer) File "/content/gdrive/MyDrive/guideDetection/yolov7/train.py", line 86, in train attempt_download(weights) # download if not found loca..
CSV 파일을 로드할때 이와 같은 에러가 뜨는 경우가 있다 아래와 같이 CSV를 로드하는 코드를 dataSet = open('IMDB Dataset.csv','r',encoding='utf-8') csvreader = csv.reader(dataSet) 아래와 같이 바꿔준다 dataSet = open('IMDB Dataset.csv','r',encoding='cp949') #한글이라면 dataSet = open('IMDB Dataset.csv','r',encoding='euc-kr')
import cv2 import numpy as np import os src = cv2.imread(filepath) 1ch_img= cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) 3ch_img = np.zeros_like(src) 3ch_img[:,:,0] = 1ch_img 3ch_img[:,:,1] = 1ch_img 3ch_img[:,:,2] = 1ch_img cv2.imwrite(filepath, 3ch_img)
Disparity Map 두 이미지 에서의 feature point 의 위치 차이를 parallax 하게 표현한것 Disparity Map을 통해 Depth Map 을 계산한다 Depth Map 각 픽셀의 3번째 좌표가 Grey Value로 표현 물리적 높이가 아닌 광삼각층략의 레이져라인 프로파일의 변위를 표현 Point Cloud x,y,z 공간정보를 가진 점들의 집합 Mesh Point Cloud Data 를 연결하여 표현 Zmap 2.5D Image 픽셀 값 + Depth 값 기준면에 대해 Point Cloud를 투사한 것 메트릭 좌표계를 사용하며 왜곡이 없음
Rotation metrix, Tranformation Metrix 매칭점들 사이의 회전 이동 관계 Essential Metrix 3D 공간상의 한 점 P가 영상 A에서는 p에 투영되고, 영상 B에서는 p'에 투영됐다고 하면 두 영상 좌표 p와 p’ 사이의 관계 Essential Matrix는 정규화된 이미지 평면에서의 매칭 쌍들 사이의 기하학적 관계를 설명하는 행렬 Fundamental Metrix 카메라 파라미터까지 포함한 두 이미지의 실제 픽셀(pixel) 좌표 사이의 기하학적 관계 왼쪽 카메라에서 촬영된 영상에서의 점이 오른쪽 카메라에서 촬영된 영상에 어디로 투영될지 알수 있음 OpenCV 의 stereoCalibrate Method CV_EXPORTS_W double stereoCalibrate..
눈으로 보는 세상-> 3차원 카메라 -> 2차원 즉 카메라로 영상을 촬영한다는 것은 3차원의 점들이 2차원에 투영되는 과정이다 이때 3차원 점들이 영상에 투영된 위치를 구하거나, 이미지 좌표로부터 3차원 공간 좌표를 알아내려면 3차원의 점들이 2차원에 투영 될때 영향을 미친 여러 요인들을 제거해 줘야 정확한 계산이 가능해 지는데 이렇게 영향을 미친 요인들은 크게 (1)내부 파라메터와 (2)외부 파라메터 두개로 나눌수 있다 각각의 파라메터에는 다음과 같은 것들이 있다 (1)내부 파라메터 -초점거리(focal length): 렌즈 중심과 센서 사이의 거리 -주점(principal point): 렌즈의 중심으로 부터 수직으로 이어진 이미지 센서의 좌표 -비대칭계수(skew coefficient) (2)외부 파..
Extrinsic Calibration World coordinate와 Camera coordinate의 관계 Intrinsic Calibration 렌즈와 이미지 센서와의 관계에서 발생한 초점거리, 주점 등의 영향 파악 방사형 왜곡과 접선형 왜곡 제거 Stereo Calibration Rotation Matrix,Translation Matrix - 카메라가 실제 원점으로부터 얼마나 이동해 있고 회전해 있는지 Essential Matrix - Calibration 된 카메라들 사이의 관계 Fundamental Matrix-카메라1에서 촬영된 영상에서의 점이 오른쪽 카메라2에서 촬영된 영상에 어디로 투영될지
cv2.HoughCircles(image: Mat, method: int, dp, minDist, param1 param2, minRadius, maxRadius) image = 8-bit, single-channel, grayscale input image method = 검출방식 #HOUGH_GRADIENT / #HOUGH_GRADIENT_ALT. dp= 입력 영상과 경사 누적의 해상도 반비례율, 1: 입력과 동일, 값이 커질수록 부정확 dp=1 , the accumulator has the same resolution as the input image. dp=2 , the accumulator has half as big width and height. HOUGH_GRADIENT_ALT : reco..