티스토리

doingAI
검색하기

블로그 홈

doingAI

doing-ai.tistory.com/m

donghunai 님의 블로그입니다.

구독자
1
방명록 방문하기

주요 글 목록

  • Graphy ai - 깔끔한 데이터 시각화 프로그램, chat gpt와 같이 사용하는 법 이번에 소개할 AI 툴은 Graphy 라는 데이터를 차트화해서 보기 좋게 만들어주는 프로그램이다. 현재 로그인도 필요없이 사이트에 들어가서 바로 이용할 수 있다. https://graphy.app/?refer=https%3A%2F%2Faicenter.ai Graphy | Slick, interactive charts that make you stand out Make slick, interactive data visualisations with our free chart-maker tool. Easily embed into Notion or wherever you like! No log-in required. graphy.app 위 링크를 따라 사이트로 이동하면 아래와 같은 메인 화면이 나온다. 들어가보.. 공감수 6 댓글수 0 2023. 6. 30.
  • Scribe - step-by-step 매뉴얼을 만들어주는 AI 툴 이번에 소개할 내용은 Scribe이라는 자동 화면 캡처 AI 툴이다. 우리가 다른 사람들한테 컴퓨터로 무언가 해야 하는 일을 가르쳐줄 때, 어느 화면에서 어느 버튼을 누르고 다음에는 어느 버튼을 누르고 등등을 가르쳐주는 사용설명서 같은 매뉴얼을 만들어 보여주면 편리하게 많은 사람들한테 사용법을 가르쳐줄 수 있을 것이다. 이럴 때 보통 일일이 화면을 캡처하고 캡처한 화면에 powerpoint나 편집 툴을 사용해서 특정 버튼에 표시를 해주는 등 직접 만드는 경우가 많을 텐데 이러한 일을 대신해주는 기능을 한다. 사용법은 매우 간단한데 아래와 같이 크롬 확장프로그램에서 웹 스토어에 들어가면 찾을 수 있다. 이렇게 웹 스토어에서 scribe을 검색하면 찾을 수 있고 확장 프로그램에 추가해서 바로 사용해볼 수 있.. 공감수 0 댓글수 0 2023. 6. 27.
  • Neural Architecture Search (NAS) - Once-for-All https://github.com/mit-han-lab/once-for-all GitHub - mit-han-lab/once-for-all: [ICLR 2020] Once for All: Train One Network and Specialize it for Efficient Deployment [ICLR 2020] Once for All: Train One Network and Specialize it for Efficient Deployment - GitHub - mit-han-lab/once-for-all: [ICLR 2020] Once for All: Train One Network and Specialize it for Efficie... github.com 이번에 소개할 방법은 Once-for.. 공감수 2 댓글수 0 2023. 6. 26.
  • Neural Architecture Search (NAS) - Hardware-Aware NAS (ProxylessNAS) 부제 : Efficiently search for efficient models 기존 NAS 방법에는 여러 문제점이 있다. 먼저 첫번째로 방법이 너무 무겁다는 점이다. search space를 만들고 각각의 search space를 찾아서 training시키고 evaluation하고 이러한 과정 자체가 굉장히 오래 걸리고 비용이 매우 크다. 그래서 proxy task를 이용해서 작은 데이터셋을 쓰겨나 (ex. CIFAR-10) 혹은 search space를 매우 작게 만들거나 더 적은 epoch로 training을 하는 등의 방법으로 조금 가볍게 만들어서 사용해왔다. 이러한 proxy task를 쓰지 않고 search 방법자체를 효율적으로 바꾸려는 시도들도 있었는데 그 중 하나가 ProxylessNAS .. 공감수 1 댓글수 0 2023. 6. 22.
  • 삼성 6대 스마트홈 서비스 이번 학기에(2023학년도 1학기) 삼성에서 주관하는 세미나 수업을 2개 들었다. 하나는 삼성의 가전제품 관련 세미나였고 하나는 삼성 전자와 관련된 전반적인 기술에 대한 소개를 하는 세미나였다. 두 강의에서 공통적으로 나왔던 서비스가 삼성의 대표적인 6대 스마트홈 서비스였다. 가전 관련 세미나에서는 이 6대 서비스에 대해 정말 많이 언급했는데 그만큼 삼성에서 밀고 있는 서비스들인 것 같아서 삼성의 6대 스마트홈 서비스가 뭔지 간단히 정리해보도록 하겠다. 6대 스마트홈 서비스 요리 (Cooking) 맞춤형 레시피 추천 - 바코드로 찍으면 맞춤형 레시피가 기기로 전달됨, 오븐 카메라로 내부 관찰 가능 와인/고기 맞춤형 관리 AI 쿡 센서로 끓어 넘침 방지 에너지 (Enegry) 전기 사용량 예측 --> 누진.. 공감수 0 댓글수 0 2023. 6. 18.
  • Neural Architecture Search (NAS) - Framework NAS (Nerual Architecture Search) 방식은 크게 3가지 component로 구분할 수 있다. 1. Search space : 어떤 architecture의 어떤 block의 어떤 파라미터를 찾아낼 것인지 등 2. Search strategy : 어떻게 찾아낼 것인지 3. Performance estimation : 찾아낸 architecture를 어떻게 평가할 것인지 Search Space 먼저 Search space를 어떻게 정할지에 대해 2가지 접근법이 존재한다. 1. Cell-level search space 2. Network-level search space 먼저 Cell-level이란 네트워크를 이루는 block들을 어떻게 구성할 것인가를 search space로 잡는 .. 공감수 2 댓글수 0 2023. 6. 17.
  • Neural Architecture Search (NAS) - Manually Designed Neural Networks Deep Learning 방법이 나온 이후로 더 정확도가 높으면서 빠른 효율적인 모델을 만들기 위해 수많은 시도들이 있었다. 첫번째로 나온 모델은 AlexNet이었다. 지금 보면 단순한 convolution과 pooling, fully connected layer의 조합이지만 당시에 Deep learning을 쓰지 않는 방법에 비해 압도적인 성능을 냈었다. 그리고 초반부에 11x11, 5x5 convolution의 큰 convolution을 사용했었다. 이후에 나온 주목할만한 모델은 VGG 이다. VGG의 경우 오로지 3x3 convolution만을 사용했다. 위의 그림에서 볼 수 있듯이 3x3을 두 번 사용하면 5x5를 사용한 것과 같은 receptive field를 얻을 수 있는데 연산량은 5x5에 .. 공감수 0 댓글수 0 2023. 6. 16.
  • [논문 리뷰] Learning to Generate Realistic Noisy Images via Pixel-level Noise-aware Adversarial Training (PNGAN) (2021 NIPS) 1. Introduction Deep Learning을 활용해 노이즈를 제거하는 디노이징 모델을 학습시키기 위해서는 noise/clean pair 데이터셋이 필요하다. 이러한 데이터셋을 만드는 방법으로는 똑같은 장면에 대해 수백번 카메라촬영을 하고 평균을 내서 clean 이미지를 얻거나 synthetic한 방법으로 노이즈를 만들어 내어 이미지에 더해 데이터셋을 만들거나 한다. 제일 대표적으로 synthetic하게 노이즈를 만들어내는 방법은 가우시안 노이즈를 만들어 더하는 방식이다 (additive white gaussian noise (AWGN)). 하지만 실제 카메라로 촬영했을 때 발생하는 노이즈는 가우시안 노이즈와 항상 비슷하지 않다. 카메라의 ISP (Image Signal Processing) 과.. 공감수 0 댓글수 0 2023. 5. 31.
  • ThiNet: A Filter Level Pruning Method for Deep Neural Network Compression (2017 ICCV) 핵심은 i+1 번째 layer의 정보를 이용해 i번째 layer를 pruning 한다는 것. i+1 번째 layer의 input들 중에 output에 최대한 영향이 없는 input을 찾아내어 없앤다. 이에 해당하는 i 번째 layer의 fllter를 없애준다. 즉, 아래와 같이 eq 5번을 만족하는 input channel의 subset(S)를 찾는게 목적 y-x를 최소화 하는 것은 x를 최소화 하는 것과 마찬가지다. 이를 이용해 조금 더 간단한 eq 6을 만들고 greedy search로 만족하는 subset (T)를 찾아내도록 알고리즘 구성 eq6은 eq5와 거의 같지만 더 빠르게 연산 가능 이를 이용해 greedy seach algorithm으로 원하는 compression rate으로 줄인 sub.. 공감수 0 댓글수 0 2023. 3. 23.
  • [MIT 6.S965] Lecture 03 - Pruning and Sparsity (Part I) (2022 Fall) https://www.youtube.com/@MITHANLab MIT HAN Lab MIT HAN Lab: Hardware, AI and Neural-nets Accelerate Deep Learning Computing Group website: hanlab.mit.edu TinyML Project: tinyml.mit.edu TinyML Course: efficientml.ai, streamed via live.efficientml.ai every Tuesday/Thursday 3:35-5:00pm ET, fall 2022. www.youtube.com 2022년 가을학기에 MIT에서 열린 Song Han 교수님의 TinyML and Efficient Deep Learning Computing 강의이.. 공감수 1 댓글수 0 2023. 3. 17.
  • [논문 리뷰] VTC-LFC: Vision Transformer Compression with Low-Frequency Components (2022 NIPS) Abstract : ViT (Vision transforemr)는 현재 많은 vision task에서 좋은 성능을 보여주고 있는 모델이다. 하지만 그만큼 모델의 사이즈가 커 compression이 필요한데 CNN에서 compression 방법들을 그대로 가져와 적용하면 성능이 잘 나오지 않는다고 한다. 그러면서 transformer의 self-attention이 low-pass filter이고 low-frequency signal이 ViT에서 더 중요하다는 점을 언급하며 이를 이용해 low-frequency sensitivity (LFS)와 low-frequency energy (LFE) 두 개의 metric을 만들어 channel pruning과 token pruning을 진행했다고 한다. Introd.. 공감수 0 댓글수 0 2023. 2. 24.
  • [논문 리뷰] A Survey Of Quantization Methods for Efficient neural Network Inference (Advanced concepts) 지난 포스팅에 이어 Quantization survey 논문에서 Advanced concept 내용을 다루고자 한다. IV. Advanced Concepts: Quantization Below 8 Bits A. Simulated and Integer-only Quantization quantization이 돼서 integer로 저장되어 있는 값을 다시 floating point로 변환해 floating point 연산을 진행하는 것이 simulated quantization (aka fake quantization)이고 이러한 변환 과정 없이 integer 연산을 그대로 적용하는 것이 integer-only quantization이다. 중간에 floating point로 바꾸어 연산하면 정확도가 올라가긴.. 공감수 1 댓글수 1 2023. 1. 5.
  • [논문 리뷰] A Survey Of Quantization Methods for Efficient neural Network Inference (Basic concepts) 다양한 Quantization 방법에 대해 소개하고 각각의 방법의 장단점 들을 소개하는 논문이다. Basic concept 부분과 Advanced concept 부분이 있는데 여기서는 basic concept만 다루고 다음 포스팅에서 Advanced concept를 다룰 예정이다. Abstract와 Introduction 등은 생략하고 Quantization 방법론 위주로 정리해보았다. III. Basic concpts of Quantization B. Uniform Quantization r은 real value(quantizaion 이전의 원래 값) 이고 S는 scaling factor, Z는 integer zero point라고 한다. Int 함수로 S로 나누어진 real value(high-pre.. 공감수 0 댓글수 0 2023. 1. 5.
    문의안내
    • 티스토리
    • 로그인
    • 고객센터

    티스토리는 카카오에서 사랑을 담아 만듭니다.

    © Kakao Corp.