반응형

이번에 OpenAI사의 ChatGPT를 사용하려다 보니

아래와 같이 다양한 모델이 나오는데,

 

 

나같이 ChatGPT의 단순한 기능만 사용하며는 소프트 유저 입장에서는

뭔 말인지 잘 모르겠다는 생각이 들어서 

 

간단히 찾아서 아래와 같이 정리하고

나중에 잊어버리면 다시 찾아보고자 한다. ㅜㅜ

 

특징 4o o1
모델 사용의 주요 목적 다목적 모델 (텍스트 생성, 번역, 요약 등) 복잡한 추론 및 특수 분야 영역에 사용
지원하는 포맷
(입력을 받는 포맷)
텍스트, 이미지, 오디오 등 텍스트 전용
추론 수준 일반적인 수준 높은 논리적 추론 및 복잡한 문제 해결 가능
속도 상대적으로 빠름 상대적으로 느림
연산 수준 상대적으로 낮은 연산 필요 더 많은 연산 필요
출시 시점 2024년 5월 2024년 9월

 

위와 같은 비교를 통해 보면 아무래도 새로 나온 모델이 더 정확하고 유용하지 않을까 싶어

 

내가 궁금한 것들은 o1을 통해서 물어보면 되겠다는 생각이 드는데..

 

지원하는 포맷이 4o가 더 다양하다 보니 그때그때 모델을 선택해서 사용하는 것이 적절할 것 같긴하다.

 

반응형
반응형

요새 AI가 언론에 많이 노출되면서 핫하다.

 

특히 Meta에서 Llama 모델을 개발하고 공개했다는 뉴스가 나온 후

개인용 컴퓨터에서도 AI를 구현할 수 있겠구나는 생각이 들기 시작해

 

여기에 대해 조금 검색해보니 Meta가 공개한 AI를 활용한 Ollama라는 오픈소스 프로젝트가 있고

이를 활용하여 개인용 컴퓨터에 LLM(대규모 언어 모델)을 쉽게 실행할 수 있게 되어있다는 것을 알게되어

이를 활용하여 내 컴퓨터에 AI를 구축해보고자 한다.

 

(참고로 Ollama는 Open Source Large Language Medel Meta AI) 

 

먼저, Ollama를 내 컴퓨터에 다운 받아 설치하고 실행하는 방법은 아래와 같다.

 

  • 윈도우 / macOS 등에서 설치하기
    • Ollama GitHub 공식 페이지 접속 (https://github.com/ollama/ollama)
    • 처음에 뭔가 폴더 같은 내용이 나와도 당황하지 말고 아래로 스크롤 다운
    • 그러면 아래의 그림을 찾을 수 있는데, 거기서 자기 운영 체제에 맞춰 다운로드하고 실행하면 끝 

 

생각보다 설치하기 쉽다.

 

그리고 실행은 해당 프로그램을 실행하면 되는데,

 

내가 사용하는 macOS 기준으로 먼저 이야기 하자면

 

아래와 같이 터미널로 접속해서 ollama를 치면 사용방법이 나오는데, 

 

예를 들면 ollama -h 는 ollama의 사용하는데 있어 도움이 되는 내용을 보겠다는 내용이고

 

ollama list 는 내가 현재 다운 받아놓은 LLM 모델 리스트를 보겠다는 내용이다.

 

 

 

자... 그럼 Ollama를 실행하는 법을 알았으니 진짜 실행할 LLM 모델을 다운받아야 하는데... 

 

LLM 모델을 다운받으려면 https://ollama.com/library 사이트로 가자

 

그럼 아래와 같은 화면이 뜰 것이다.

 

여기서 설명을 쭉 읽어보고 본인에게 맞는 모델을 다운받고 난 후 

 

모델을 다운 받아놓은 폴더에 들어가서 "ollama run 해당모델" 식으로 실행하면 된다.

 

 

반응형
반응형

어떤 주제를 가지고 설명하는 자료를 만들어야 할 때 많은 사람들이 PPT를 활용하기도 한다.

 

그리고 당연하게, 그 설명자료는 적어도 보는 사람이 불편함을 느끼지 않을 수준으로 이쁘게 만들어야 하는데 

 

문제는 그렇게 이쁘게 만드려면 시간이 걸린다는 사실...

 

이런 문제에 있어 AI를 활용하여 내 부담을 줄여볼 수도 있을 것 같아 여기에 소개해 본다.

 

 

 

 

 

먼저 해당 AI 툴은 온라인에서 이루어지기 때문에 별도의 다운로드 등은 필요없고,

대신에 인터넷 연결이 필수인데...  Gamma 의 웹페이지 주소는 아래와 같다.

 

https://gamma.app/?lng=ko

 

뭐, 사이트에 접속해보면 알 수 있듯 구독료 결제를 유도하는데... 

무료 계정으로 사용해도 큰 문제는 없지만 아래와 같이 제한사항을 걸어두기 때문에

필요한 사람은 유료 회원 등록을 해야할 필요가 있을 것 같다.

 

 

반응형
반응형

AI 이미지 생성을 해볼까 하고 검색하다가 발견한 방법이다.

 

먼저, 컴맹 비슷한 수준의 내가 하는 것이니 누구나 할 수 있는 방법이라고 생각하고

Apple silicon 칩 맥북에 설치하는 방법에 대해 정리하고자 한다.

(내가 직접 설치하다가 작성하는 문서라서.. 윈도우는 윈도 PC에서 설치할 때 작성해 보고자 한다.)

 

먼저 아래 사이트로 가서 대충 읽어보고 따라해보자.

https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Installation-on-Apple-Silicon

 

Installation on Apple Silicon

Stable Diffusion web UI. Contribute to AUTOMATIC1111/stable-diffusion-webui development by creating an account on GitHub.

github.com

 

그런데 쉽지 않다.. 의욕은 있으나...

나처럼 영어 울렁증 있는 분들을 위해...

 

읽어보고 직접 진행한 내용을 아래와 같이 매우 쉽게 정리코자 한다.

 

 

1. 홈브류를 설치한다.(Homebrew, https://brew.sh 에 접속해보라는군..)

 

홈브류가 뭔지 했더니 패키지 관리자였다. 설치하는 방식은 아래 그림에서 설명한 것과 같이

터미널을 열고 붙여넣기를 하면 된다고 한다.

 

여기에서 시킨대로 하자면 먼저 터미널 어플을 열고 아래와 같이 커맨드 라인을 붙이면 된다고 한다.

 

위 화면에서 엔터를 누르면 주르륵 설치가 진행되고...

오, 뭔가 설치를 완료 했다.

 

설치 완료 후에 아래 내용을 잊지 말고 진행하자.

위 내용은 터미널에서 아래 2줄의 커맨드를 입력해서 홈브류 어플 실행 명령어에 대해서

MacOS 에서 알아들을 수 있도록 PATH에 넣어줘야 한다는 뜻이다.

 

(echo; echo 'eval "$(/opt/homebrew/bin/brew shellenv)"') >> /Users/내계정명/.zprofile

eval "$(/opt/homebrew/bin/brew shellenv)"

 

 

2. 그 다음 brew install cmake protobuf rust python@3.10 git wget 이 명령어를 터미널에서 실행한다.

 

아래 명령어를 복사해서 터미널에 붙여넣자!

brew install cmake protobuf rust python@3.10 git wget

실행하니 아래와 같이 알아서 열심히 다운 받고 설치해준다.

 

3. 그 다음은 git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui 를 터미널에서 실행한다.

아래 명령어를 터미널에 붙여 넣으면 아래 그림처럼 진행 및 완료된다.

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui

 

 

4. 그리고 나서 Stable-diffusion 모델을 다운받아서 넣으라고 하는데... 아래 그림의 링크에서 다운받고 

계정 폴더 아래 있는 stable-diffusion-webui / models / Stable-diffusion 으로 복사해준다.

 

 

5. 또한  아래의 Here 를 눌러 다운 받은 다음 4번에 다운 받은 ckpt 확장자 파일 이름과 같이 변경하여 yaml 확장자 파일로 같은 Stable-diffusion 폴더에 넣어준다.

 

 

 

6. 이제 대충 된것 같은데, cd stable-diffusion-webui 폴더로 이동하고 ./webui.sh 를 입력하여

본격적인 Python virtual 환경 설치 및 실행을 해보자.(필요한 것들은 알아서 다운받아 설치해준다.)

 

./webui.sh 를 입력했더니 아래와 같은 유저 인터페이스 창이 떴다.

 

 

 

음... 이제 Stable Diffusion Checkpoint 를 선택하고 Text를 적당히 입력해서 테스트 하면...

 

 

짜잔.... 

나 같은 컴맹 수준의 유저도 이렇게 간단히 완료했다.

 

 

 

반응형
반응형

Chat GPT에 뭔가를 물어본다면... 

 

반드시 아래 내용을 염두에 두고 물어봐야 한다.

 

누군가 ChatGPT에 지속적으로 오류 정보를 넣고 있는게 아닐까?....

 

큰일이다..

반응형

+ Recent posts