-
읽어볼 글 목록
- ‘ChazaYOU’는 진짜 연구자를 찾습니다.
- “Human-AI Interaction: Intermittent, Continuous, or Proactive” 해설
- “촉촉한 인공지능은 없습니다.”
- (CHI 2024 Best Paper 리뷰) LLM을 탑재한 대화형 검색 서비스를 쓰면 내 생각이 편향된다고?
- (CHI 2024 논문 리뷰) 초등학생을 대상으로 한 교육과정에 생성형 AI를 쓰겠다고?
- (CLIP) 텍스트 정보를 이용한 Visual Model Pre-training
- (K-AI) (Inforience의 레이더에 포착된 제1저자) Jeonghyun Park(중앙대)의 연구를 분석해 보자.
- (K-EECS) 전자, 컴퓨터 분야 K-연구의 전체적인 동향 (data ver. 20250709)
- (K-EECS) 진지하게 재미로 비교해 본 서울대, KAIST, POSTECH의 연구 성향
- (K-EECS) 한국은 Autonomous and Advanced Vehicle Systems: Navigation and Safety 분야에서 어떤 연구를 하고 있을까?
- (논문 간단 요약) Evidence of a social evaluation penalty for using AI
- [Episode] ShadowEgo에게 나의 과거를 묻다.
- [Episode] The Shadow Professor
- [Episode] The Shadow Reporter
- [Episode] 그림자 함정
-
최신 댓글
[…] https://inforience.net/2017/04/01/inftn-14-001-a-framework-for-finding-high-interest-content-pages-f… […]
[…] https://inforience.net/2017/05/16/cscw2013/ […]
[…] https://inforience.net/2017/04/21/social_type_by_tweet_diversity/ […]
[…] https://inforience.net/2019/04/28/ecg_classification/ […]
일간 보관물: 2021년 02월 09일
(CLIP) 텍스트 정보를 이용한 Visual Model Pre-training
클릭 >> Hello, world !! (from ShadowEgo) 이번 포스트에서는 OpenAI 에서 최근 발표한 CLIP 모델[1]을 소개한다. 이미지, 오디오 등과 같은 데이터의 차원(dimension)을 줄이면서도 보다 의미있는 형태로 변환하는 representational learning은 딥러닝 및 AI 기술의 대중화를 가능하게 한 중요한 요소들 중 하나이다. … 계속 읽기
[…] https://inforience.net/2021/01/28/bias-ai/ […]