전체 글

전체 글

    Tensorboard 서버 연결 막힐때 해결법

    첫 번째 방법: ssh 연결할 때 우회하기 ssh -L 16006:localhost:6006 [id]@[server_ip] tensorboard --logdir ./runs 두 번째 방법: 모든 ip를 허용하기 tensorboard --logdir ./runs --host 0.0.0.0

    올웨더 포트폴리오 및 사회 초년생 제태크

    올웨더 포트폴리오 및 사회 초년생 제태크

    다크모드에선 글이 잘 안보입니다. 우측 하단에서 라이트 모드로 바꿔주세요 :) 나의 주식 투자 경험2018년 1월 카카오 진입 (27,000원대)카카오택시, 카카오페이, 멜론&로엔 인수 등 미래를 보고 투자했으나…2018년 기준금리 인상에 의해 주식시장 장이 안 좋았음15%정도 손해를 보고 손절 (다음부터는 주식에 손 안대겠다고 다짐)(현재 73,000원)2020년 2월 엔비디아 진입 (51달러)CUDA가 nvidia에서밖에 안 돌아가는 것을 보고 AI 미래를 보고 투자코로나로 세상이 망하는 것처럼 느껴지던 3월에 20%이상 손해보고 손절..(다신 주식보지도 않는다고 다짐)(현재 150달러)2021년 하반기 나스닥 etf 및 메타버스 관련주 진입현재 30%이상 손실 중나의 투자에 대한 결론주식(투자)은 ..

    conda 가상환경 그대로 옮기는 법 (참조 링크)

    https://velog.io/@sheoyonj/Conda-가상환경-그대로-옮기기

    tmux 사용법 (참조링크)

    https://sarah950716.tistory.com/21 tmux 사용법 회사에서 일을 하다 보니 terminal에 계속 tab을 추가하여 사용하는 것에 한계를 느끼던 중, tmux와 screen을 추천받게 되었습니다. 무엇을 사용하는게 더 나을까 고민하며 구글링해본 결과, tmux가 더 sarah950716.tistory.com 인터넷에 여러개의 tmux 사용법 글이 있는데, 그 중에 가장 잘 정리된 것을 선정하여 공유드립니다.

    pytorch Distributed DataParallel 설명 (multi-gpu 하는 법)

    pytorch Distributed DataParallel 설명 (multi-gpu 하는 법)

    from torch.utils.data.distributed import DistributedSampler train_dataset = datasets.ImageFolder(traindir, ...) train_sampler = DistributedSampler(train_dataset) train_loader = torch.utils.data.DataLoader( train_dataset, batch_size=args.batch_size, shuffle=False, num_workers=args.workers, pin_memory=True, sampler=train_sampler) pytorch에서 모델을 학습시킬 때 multi-gpu를 사용하려면 DataParallel이나 DistributedData..

    Moving average란? (이동평균선)

    Moving average란? (이동평균선)

    주식을 좀 하는 사람은 들어봤던 이평선(20일 평균선, 60일 평균선 등)이다. ML에선 noisy한 time-series data를 smoothing하는 용도로 사용한다.

    Deep learning에서 Collapse (Collapsing)란?

    Deep learning 논문을 읽다보면 model collapse에 대한 얘기가 많이 나온다. 간단히 얘기하자면, 모든 입력에 대해 동일한 embedding을 출력하는 현상이다. 두 가지 예가 있는데, GAN의 경우, generator와 discriminator를 균형있게 학습시켜야 하는데, discriminator가 학습속도가 너무 빨라져 버리는 경우가 있다. 이 경우에, GAN은 '진짜'같은 이미지를 생성하는 본 목적을 잃어버리고, discriminator가 가장 헷갈려하는 똑같은 그림만 생성하게 된다. 이 경우를 Mode Collapse라고 한다. 또 representation learning의 경우, contrastive learning으로 학습하는 경우가 많다. contrastive learn..

    ViT 모델 사이즈 별 parameter 수 (feat.GFLOPs)

    ViT 모델 사이즈 별 parameter 수 (feat.GFLOPs)

    요즘 CLIP 관련해서 논문을 쓰고 있어서 ViT/B-32 , ViT/B-16, ViT/L-14 등의 parameter 수를 검색하는데, 통 안나왔다. 보니까 ViT/B , ViT/L, ViT/H의 차이는 있지만, ViT/B-32와 ViT/B-16의 parameter수는 차이가 안난다는 것을 알아내었다. 따라서 모델의 계산량을 따지는 게 맞다. GFLOPS 자료 출처 : https://chowdera.com/2021/06/20210620230815101l.html GFLOPs로 비교하는 경우 model size라는 단어보다 model compute를 사용한다. (CLIP paper figure caption 참고)