일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
- 개발 일기
- 책 #오늘 밤
- ROS1
- AirSim #RL #Drone
- dino #grounding dino #vlm #object detection
- vlm 정리 #glip #object detection
- 코드 트리 #개발자 #언어 공부 #코딩 공부
- 정보이론
- Infotaxis
- 세계에서 이 세상이 사라진다 해도
- path planning #mcts
- vision language model #transformer
- vlm #clip #object detection
- ste
- planning #ste #논문 리뷰
- 자율주행 #로봇공학과
- 로봇 #로봇공학과 #공대생 #대학생 #일상 #휴무 #교수
- 경로 계획
- 소울러닝 #책리뷰 #느낀점
- ROS2
- Unity
- 탐색
- Today
- Total
목록2025/03 (3)
퇴근할게요 교수님

자율주행 분야란?2024.01.18 - [일상 이야기] - 로봇공학과를 선택한 이유, 로봇공학과란?을 이어서 이번엔 자율주행 분야에 대해서 말해보려고 합니다. GPT와 같은 생성형 Ai와 함께 가장 핫한 주제 중 하나죠? 자율주행은 운전자가 직접 조작하지 않아도 주행환경을 인식해 위험을 판단하고 최적의 주행 경로를 계획해 스스로 주행하는 시스템을 말해요.자율주행에는 5가지의 단계가 있는데요, 현재 자율주행 기술은 어느 정도까지 왔을까요? 테슬라의 FSD(Full Self-Driving), 구글 웨이모(Waymo), 그리고 여러 자동차 제조사들이 개발 중인 자율주행 시스템을 보면, 우리가 기대하는 완전한 자율주행(Level 5)까지는 아직 시간이 필요해요. 현재 가장 발전한 수준은 Level 3~4 정도로..

GLIP(Grounded Language-Image Pre-training)은 CLIP과 함께 VLM의 기초가 되는 논문입니다. 이 논문은 CLIP에 대해서 알고 있다는 가정 하에 쉽게 이해할 수 있으니, 아직 CLIP이 익숙하지 않은 사람은 다음 블로그를 참고하는 것이 도움이 될 것이다. [논문 리뷰] VLM 돌파하기 - CLIP: Learning Transferable Visual Models from Natural Language SupervisionCLIP: Learning Transferable Visual Models from Natural Language Supervision 0. 시작하기 전에최근 DETR[End to End Detection]을 통해서 VLM을 이용한 객체 탐지[obje..

CLIP: Learning Transferable Visual Models from Natural Language Supervision 0. 시작하기 전에최근 DETR[End to End Detection]을 통해서 VLM을 이용한 객체 탐지[object detection]이 핫하다. 이 중 VLM의 시초라 할 수 있는 CLIP이라는 논문에 대해서 리뷰해 보았다.1. CLIP란?CLIP[Contrastive Language-Image Pre-training]은 OpenAI에서 제안한 모델로, 이미지와 텍스트 쌍을 통해 학습하는 대규모 학습 기법이다. 기존 이미지 분류 모델들은 고정된 범주를 예측하도록 학습되지만, CLIP은 훨씬 더 유연하게 동작한다. 인터넷에 있는 방대한 이미지-텍스트 쌍을 이용해 이미..