반응형 반응형 LYS의 티스토리55 반응형 [항해커톤 2024] AI 항해커톤 참가 후기 항해커톤 2024 후기 팀 스파르타에서 진행한 항해커톤 2024에서 10:1의 경쟁률을 뚫고 최종 50인에 선발되어, 3명의 개발자와 함께 '헬렌켈러'라는 팀명으로 참가하게 되었습니다. 우리의 목표는 저시력 시각장애인이 원하는 물건을 찾고, 주변 환경을 인식할 수 있도록 돕는 AI 서비스를 만드는 것이었습니다. 팀원들과 함께 무박 2일간 열심히 달려 완성한 프로젝트에 대해 이야기해보려 합니다. [우리의 도전과 목표] 우리 팀은 시각장애인의 실제 불편함을 해결하기 위한 AI 솔루션을 찾는 데 주력했습니다. 특히 저시력 시각장애인을 위해, 그들이 원하는 물건을 찾고 주변 환경을 인식하는 데 도움을 줄 수 있는 AI 서비스를 개발하는 것이 목표였습니다. 저는 저희 팀에서 FastAPI를 사용해 AI와 백엔드 .. 2024. 5. 31. PBNS(Physically Based Neural Simulation for Unsupervised Outfit Pose Space Deformation) 논문 리뷰 introduce 이번에 소개할 PBNS은 제가 회사에서 의류 3D 관련 프로젝트를 하면서 읽게된 논문 입니다. SMPL의 다양한 자세에서 의류가 신체에 맞춰질 수 있도록 학습하는 모델입니다. 기본적으로 3D mesh에 대한 이해도가 있어야 읽을 수 있기 때문에 미리 공부하시고 읽으시면 좋습니다. Abstract 본 논문은 딥러닝을 활용하여 PSD(Pose Space Deformation)를 통한 의류 시뮬레이션의 새로운 방법론을 제시합니다. 고전적인 PBS(Physically Based Simulations) 방식은 우수한 결과를 제공하지만 장면 수정 시에 계산 비용이 많이 드는 단점이 있습니다. 이에 반해, 본 논문에서 제안하는 LBS(Linear Blend Skinning)을 사용한 PSD 방식은 .. 2024. 4. 11. CLIP(Contrastive Language-Image Pre-Training) 논문 리뷰 introduce 이번에 소개할 CLIP 모델은 OpenAI가 개발한 인공지능 기술로, "Contrastive Language–Image Pre-training"의 약자입니다. 이 모델은 대량의 이미지와 텍스트 데이터를 함께 학습함으로써, 이미지를 설명하는 텍스트를 이해하고, 반대로 텍스트로부터 이미지 내용을 예측할 수 있는 있으며, 강력한 zero-shot 능력을 가지고 있습니다. Abstract 기존의 최신 기술(SOTA) 컴퓨터 비전 태스크들은 지정된 클래스 카테고리에서만 훈련이 가능했습니다. 이러한 방식은 각각의 비전 태스크마다 새로운 레이블 데이터를 추가해야 했기 때문에, 일반화와 유용성에 제한을 받았습니다. 이미지에 대한 텍스트를 직접 학습하는 것은 더 많은 훈련 자원 을 활용할 수 있게 하므.. 2024. 4. 11. [Python] selenium으로 웹크롤링시 Message: element click intercepted 개발환경 - ubuntu18.04 - python3.7 1. Problem Message: element click intercepted selenium에서 버튼을 클릭하지 못해서 발생하는 에러 2. Solution .click() 대신에 button = driver.find_element(By.XPATH, "xpath") driver.execute_script("arguments[0].click();", button) 2023. 1. 25. 이전 1 2 3 4 ··· 14 다음 반응형