다른 API 테스트 툴을 써보려고 하다가

굳이 시장 지배적인 위치에 있는 Postman을 두고 다른 도구를 써야하나?라는 생각이 들어서... ^^

 

https://www.postman.com/

Postman

 

어?! 사이트 주소가 ".com" 이네!?

이거 회사에서 free 사용해도 되는 것일까?

Pricing

 

역시나! 가격 정책이 존재한다.

이거 참... 애매하다.

 

회사에서 상업적 목적으로 사용해도 되는걸까?

구글링을 해보니 이런 답변이 있긴 하다.

 

https://gytni.com/new_gytni/qna.php?document_srl=25138&mode=contact&mode2=view&mode3=chk

Q&A

 

언제든 변할 수 있는 것이 라이선스이고, 가격정책인지라

현재 시점에서도 허용되는 내역인지는 추가 확인이 필요할 것 같다.

 

법적 해석까지는 모르겠지만,

현재 Terms 내용을 살펴봐도 그렇고, 구글링 결과들을 살펴봐도

회사에서 상업적 목적으로 사용하는 것은 가능한 것으로 보인다.

 

그런데, 여기에서 하나 더 살펴볼 것이 있다.

위의 가격정책은 플랫폼 서비스로 제공되는 것에 기반한 정책으로 보인다.

Product

 

다운로드 받아서 직접 설치해서 사용할 수도 있는 것이다.

Downloads

 

다운로드 받아서 직접 설치/사용한다고 하여 무조건 free 인 것은 아니지만,

보안 측면에서도 그렇고 여러가지를 검토해봐도 그렇고

회사에서 사용한다고 하면 다운로드 받아서 직접 설치 후 사용하는 것이 안전하다고 판단된다.

 

 

 

1. Download

웹사이트를 통해서 다운로드를 받는 것이 가장 편하지만,

개인적인 취향으로 CLI를 통해 다운로드 받는 것을 좋아하기 때문에 다음과 같이 진행했다.

 

> wget https://dl.pstmn.io/download/latest/linux64 -O postman-linux-x64.tar.gz

 

 

2. Extract

압축 해제를 하면 된다.

 

참고로 주로 "/opt" 경로를 사용하도록 가이드를 하고 있는데.

개인적인 취향으로 "/srv/install/postman" 경로를 사용했다.

 

> tar -zxvf postman-linux-x64.tar.gz

 

 

3. Symlink

실행 경로 등을 위해 symlink 생성을 해주면 좋다.

 

> sudo ln -s /srv/install/postman/Postman/Postman /usr/bin/postman

 

 

4. Desktop Icon (Optional)

선택적이기는 한데,

GUI에서 편하게 사용하기 위해 아이콘을 만들어 놓으면 좋다.

 

> sudo nano /usr/share/applications/postman.desktop

 

[Desktop Entry]
Type=Application
Name=Postman
Icon=/srv/install/postman/Postman/app/resources/app/assets/icon.png
Exec="/srv/install/postman/Postman/Postman"
Comment=Postman Desktop App
Categories=Development;Code;

 

오른쪽 아래에 예쁘게 생성되어 있는 것을 볼 수 있다.

 

 

5. Execute

실행을 해보자.

위에서 생성한 아이콘을 이용해도 좋고, CLI를 통해서도 실행할 수 있다.

 

웹 인터페이스가 아니라 Client가 실행된다.

 

6. Account

계정을 요구한다.

"Create Free Account"를 선택하면...

 

홈페이지에서 계정 생성하는 화면으로 넘어온다.

굳이 계정을 만들고 싶지는 않은데...

 

그래서 "Continue without an account"를 선택해보면 다음과 같은 화면을 볼 수 있다.

 

부족하더라도 "Open Lightweight API Client"를 이용하도록 하자.

 

 

7. GUI Client

이제 드디어 원하는 화면을 볼 수 있다.

 

사용법은 다음 포스팅으로 정리해보겠다.

반응형

업무로 API 서비스를 만들 때,

최근에는 Python을 이용하는 것이 편하다보니 주로 FastAPI를 이용하곤 한다.

 

그러다가 2달 전쯤 새로운 웹-프레임워크(Web-Framework) 소식을 듣게 되었다.

- https://news.hada.io/topic?id=16091

GeekNews

 

새로운 프레임워크임에도 불구하고 의외로(?) 반응이 꽤 괜찮다.

 

사이트도 산뜻하게 디자인되어 있다.

- https://fastht.ml/

FastHTML

 

FastHTML 스스로 만든 페이지이겠지?! ㅋㅋㅋ

어!? 나처럼 생각하는 사람이 많아서인지..... 그렇다고 한다!!!

FastHTML

 

5천개가 넘는 Star와 200건이 넘는 Fork를 자랑하는 프로젝트이다.

- https://github.com/AnswerDotAI/fasthtml

GitHub

 

GeekNews에서 괜히 경쟁력이 있다는 말을 한 것이 아니다.

의외로 많은 것들이 제공/지원되고 있다.

- https://gallery.fastht.ml/

FastHTML Gallery

 

1. Installation

설치 과정은 Python 패키지답게 정말 심플하다.

- https://github.com/AnswerDotAI/fasthtml?tab=readme-ov-file#installation

Installation

 

그래서, Python 가상환경 만들고 pip 설치를 진행했는데...

Error

 

얼라료?!

에러!? 이런!!

 

패키지를 아예 찾지 못하는 것이 이상해서...

혹시나 하고 Python 버전을 올려봤다.

Python 3.10.9

 

이런, Python 3.8.x 버전은 지원하지 않는 것으로 보인다.

짧게 살펴봤지만, Document 어디에서도 Python 버전 제약에 대한 설명이 없었는데....

 

 

2. Usage

준비가 되었으니 빨리 Hello를 외쳐보자.

 

main.py

 

실행은 그냥 하면 된다.

Execute

 

실행 결과에서 안내해주는 주소를 참고해서

웹-브라우저로 결과를 확인해보자.

Chrome

 

소스코드를 확인해보면 다음과 같다.

View Source

 

그런데, 웹-브라우저에서 "Hello World!" 부분을 클릭해도 아무런 일이 발생하지 않는다.

(내부적으로는 404 에러가 발생하겠지만 ^^)

 

소스코드에 8-9 라인을 다음과 같이 추가하고 Save를 해보자.

update

 

그러면, 다음과 같이 파일이 변경된 것을 감지하고 자동으로 Reloading을 한다!!!

브라보 !!!

Reloading

 

웹-브라우저에서 "Hello World!" 부분을 클릭하면

다음과 같이 다른 내용이 출력된다.

Click

 

호오~ 정말 심플하네!!!

 

 

3. Example

여러 예시들을 참고하면 도움이 될 것이다.

- https://github.com/AnswerDotAI/fasthtml-example

GitHub

 

다양한 App 예시들을 볼 수 있다.

Exaples

 

음... 과연 앞으로도 지속적으로 성장을 할 것인지

관심있게 지켜봐야겠다.

반응형

모르는 사람은 모르고 살지만,

아는 사람은 정말 잘 사용한다는 "Config Management (Config 관리)"  도구를 소개하고자 한다.

 

"Config"라고 지칭하면 이를 듣는 사람이 어떤 것을 떠올려야할지 애매한 부분이 있는데,

"Environment Variable"이라고 말하는 것이 좀 더 명확할 것 같다.

 

1. Background

개발을 할 때 DB 서버의 IP 라던지 API 서버의 URL,

인증을 위한 token 값 또는 아이디나 패스워드 같은 값들을 '환경 변수'로 설정을 하곤 한다.

 

Dev 환경이나 Staging, Production 환경에 따라 변경되는 값이라거나

아이디, 패스워드와 같이 보안에 중요한 내역들을 소스 코드 내부에 저장하는 것은 피해야하기 때문이다.

 

간단한 예시를 들어보자.

우선 Python으로 아래와 같은 코드를 만들어봤다.

 

그리고 '환경 변수' 설정에 따라 어떠한 결과가 나오는지 확인해보자.

 

2. dotenv

그런데, 매번 위와 같이 환경 변수를 CLI 형태로 직접 입력해주는 것은 상당히 번거롭다.

귀찮은 측면도 있지만, 재부팅 되거나 하면 환경 변수가 모두 사라지는 것도 문제다.

 

더더욱 어려운 점은 환경 변수 내역에 대한 이력 관리가 안된다는 점이다.

시간이 지나서 모두 잊어버리는 경우도 종종 발생한다.

 

그래서, 이런 이슈를 해결하기 위해 ".env" 파일을 만들어서 활용하는 방법을 사용하곤 한다.

 

Python 코드로 이를 사용하는 방법을 알아보자.

추가 패키지 설치가 필요하니, 가상화 환경을 먼저 꾸며보자.

 

"dotenv" 패키지를 불러들여서 ".env" 파일을 읽어들이도록 할 수 있다.

 

".env" 파일은 다음과 같이 작성이 되어 있으면 된다.

 

실제 환경 변수에 선언된 내역이 없어도

'.env' 파일에 있는 내용을 환경 변수처럼 불러들여서 사용할 수 있다는 것이 확인된다.

 

이렇게 환경 변수를 사용하는 것도 충분히 좋은 방법이지만,

Dev - Stagiing - Production 각 환경에 따른 환경 변수를 한 번에 관리하기에 어려움이 있고

'.env' 파일이 Plain Text 형식이라 token 값이나 아이디, 패스워드 등을 관리하기에는 보안 위협이 있다.

 

3. dotenvx

기존의 dotenv의 부족한 부분을 개선해서 새로 나온 것이 dotenvx 이다.

사이트에 나온 것 처럼 dotenv. better.  !!!

https://dotenvx.com/

 

공식 사이트도 좋지만, GitHub 페이지가 개인적으로는 더 끌린다 ^^

https://github.com/dotenvx/dotenvx

 

dotenvx에서 가장 중점을 두고 있는 3가지 특징은 다음과 같다.

 

Run Anywhere → inconsistency across platforms

- Multiple Environments → juggling multiple environments

- Encryption → leaking your .env file

 

그럼 설치 과정부터 하나씩 살펴보자.

 

 

① Install

정말 다양한 설치 방법을 지원하고 있다.

https://dotenvx.com/docs/install

 

편한 방법들도 있지만,

방화벽 등의 상황에서도 활용 가능한 GitHub Release 파일을 이용한 설치 방법으로 진행해보겠다.

 

 

다운로드 받아서 압축만 풀면 된다.

> curl -L -o dotenvx.tar.gz "https://github.com/dotenvx/dotenvx/releases/latest/download/dotenvx-$(uname -s)-$(uname -m).tar.gz"

> tar -xzf dotenvx.tar.gz

> ./dotenvx help

 

그냥 그대로 실행해보면 그냥 된다.

 

GitHub의 Release에서 다운로드 받아서 압축 풀면 되는 것이다.

https://github.com/dotenvx/dotenvx/releases

 

제대로 사용하기 위해서는 PATH 경로를 추가해줘야 한다.

 

각자의 Shell 상황에 따라 달라질텐데,

필자는 ZSH 환경이기에 다음과 같이 압축 해제한 경로를 추가해줬다.

 

필자가 실행한 내역들도 참고 삼아 공유해본다.

 

② Basic

간단한 사용법을 알아보도록 하자.

'dotenv' 패키지를 불러들이지 않는 기본적인 소스코드로 살펴보겠다.

 

환경 변수로 등록된 내역이 없는 상황에서

'.env' 파일의 내용을 환경 변수로 다룰 수 있는 것을 확인해 볼 수 있다.

 

Dev - Staging - Production 과 같이 여러 실행 환경이 있을 때에는 다음과 같이 사용할 수 있다.

'.env.production' 파일을 우선 생성해보자.

 

실행할 때 '-f' 옵션을 통해 특정 파일을 지칭할 수 있다.

 

'.env' 형식의 파일 이름이 아니라 어떤 파일 이름이라도 상관없이 지정할 수 있는 것이다.

 

이번에는 암호화를 진행해보겠다.

"dotenvx encrypt" 명령어를 이용해서 암호화할 파일을 지정해주면 된다.

 

지정한 파일은 다음과 같이 내용이 변경되고,

 

Private Key 파일을 위한 새로운 파일이 하나 생성되었다.

 

이렇게 암호화를 하면,

데이터(환경 변수 내용)를 commit 해서 버전 관리를 하더라도 그 내용이 유출되지 않도록 할 수 있다.

 

대신 실행하는 환경에는 Private Key가 저장되어 있는 키 파일을 넣어줘야 한다.

당연하게도 키 파일은 소스코드 저장소에 저장되면 안된다.

 

 

설치 과정도 쉽고,

사용 방법도 쉬운 아주 유용한 도구인 것 같다.

반응형

IT 뉴스를 읽다가 발견한 재미난 뉴스가 하나 있었다.

  - https://news.hada.io/topic?id=16044

출처: GeekNews

 

 

어!? SQLite는 그냥 가벼운 맛에 사용하는 database 아니었나!?

 

SQLite에서 발표한 내용이라 믿지 못할 수 있지만, 테스트한 내용을 보면 믿을만한 것 같다.

  - https://sqlite.org/fasterthanfs.html

출처: SQLite

 

그런데, 정말 드라마틱한 속도 차이를 보이는 것은

read latency 그래프에서 보이는 것처럼 Win10과의 비교이다. 빠르다 !!!

 

하지만, 어디까지나 제한적인 상황에서만 SQLite 사용을 추천하고,

대용량이거나 MSA와 같은 상황에서는 Postgres를 사용하는 것이 훨 나은 선택이다.

  - https://news.hada.io/topic?id=6498

 

가만히 생각해보니 SQLite라는 것을 내가 처음 들어본 것은

Android 초창기에 플랫폼 컴파일 및 App 개발해본답시고 깔짝 깔짝 거릴 때이다.

그렇다! Android에서 지금도 사용하는

튼튼한 안정성을 갖고 있는 훌륭한데이터베이스인 것은 분명하다.

  - https://www.epicweb.dev/why-you-should-probably-be-using-sqlite

  - https://news.hada.io/topic?id=11561

 

SQLite에 대한 재미있는 히스토리를 알고 싶으신 분은 다음 인터뷰 내용을 한 번 살펴보기 바란다.

  - https://corecursive.com/066-sqlite-with-richard-hipp/

  - https://news.hada.io/topic?id=4558

 

재미있는 사실 중 하나는

토발즈 아저씨(?)가 Linux Kernel 개발을 위해 Git이라는 소스코드 버전관리 도구를 만든 것처럼

리차드 힙(Richard Hipp) 아저씨도 SQLite 개발을 위해 Fossil이라는 소스코드 버전관리 도구를 만들었다!!!

  - https://fossil-scm.org/

 

 

이제 SQLite를 직접 건드려보자.

 

 

1. SQLite 확인

어떤 버전을 어떻게 설치하면 되는지 공식 사이트를 통해서 확인해보자.

https://www.sqlite.org/

 

Download 메뉴에서 제일 앞에 Android를 위한 binary 파일부터 확인된다는 것이 조금 재미있었다 ^^

https://www.sqlite.org/download.html

 

 

2. Serverless Architecture

SQLite는 Server-Client Architecture가 아닌 Serverless Architecture 방식이다.

  - https://www.sqlite.org/serverless.html

출처: https://www.whatwant.com

 

그렇기 때문에 별도의 Server 설치 과정이 없다.

 

어!? 그러면 위에서 살펴본 SQLite의 다운로드 페이지는 뭐지!?

그냥 Command-Line Tool이다.

 

 

3. SQLite Tools in Ubuntu

① Install

Ubuntu 환경에서는 그냥 패키지 설치를 하면 된다.

> sudo apt install sqlite3

출처: https://www.whatwant.com

 

② Create database

설치된 tool 버전 확인 및 database 생성은 다음과 같이 실행할 수 있다.

> sqlite3 --version

> sqlite3 test.db

 

 

 

③ Create table and example

TABLE 생성 및 간단한 사용 예시는 다음과 같다.

sqlite> CREATE TABLE TEMP (
   ...> id INTEGER PRIMARY KEY,
   ...> name VARCHAR(10),
   ...> number VARCHAR(10));


sqlite> INSERT INTO TEMP(name, number) VALUES('whatwant', '123456789');


sqlite> SELECT * FROM TEMP;

1|whatwant|123456789


sqlite> .exit

 

 

생성된 database file도 확인할 수 있다.

 

④ command

중요한 명령어 몇 가지를 보자면 다음과 같다.

Command Comments
sqlite3 {database filename} 데이터 베이스 생성하면서 접속 (기존 데이터베이스가 있으면 읽어들임)
.open {database filename} 접속된 상태에서 데이터베이스 생성. 읽기 또는 변경
.help 도움말
.database 데이터베이스 파일 위치 보기
.table 테이블 목록 보기
.show 현재 설정 보기
.clone {database filename} 데이터베이스 복제
.mode {option} select 결과 출력 방식 (list / column) column 방식 추
.quit / .exit 프롬프트 종료

 

 

4. SQLite Tools in Python

Python을 이용해서 SQLite 사용하는 예시를 확인해보자.

 

일단 패키지 관리를 위해서 가상환경 설정부터 해놓자.

> python -m venv .venv

> source .venv/bin/activate

 

 

소스코드는 다음과 같이 작성했다.

import sqlite3

conn = sqlite3.connect('test.db')
cursor = conn.cursor()

cursor.execute('SELECT * FROM TEMP')
print(cursor.fetchall())

cursor.close()

 

실행해보면 다음과 같이 예쁘게 잘 나온다.

 

 

SQLite 활용에 대해서 공부하고 싶으신 분은 다음 링크 자료를 참조하면 좋다.

  - https://wikidocs.net/book/1530

 

file-system 사용해서 데이터를 처리하는 경우

SQLite 사용에 대해서도 같이 검토해보면 좋을 것 같다.

반응형

드디어 딥러닝으로 들어간다~!!! 고! 고!

 

 

 

인공 신경망 (Neural Network)

- 텐서플로(Tensorflow), 케라스(Keras)

- 이진 분류: binary_crossentropy, 다중 분류: categorical_crossentropy

- Dense → Sequential → compile → fit → evaluate

 

심층신경망

- model.summary()

- keras.layers.Flatten()

- relu

- optimizer

  . 기본 경사 하강법 옵티마이저: SGD, Momentum, nesterov

  . 적응적 학습률 옵티마이저: RMSprop, Adam, Adagrad

 

신경망 모델 훈련

- loss function

- epochs

- drop-out

- early stopping

 

 

 

기본 숙제 : Ch.07(07-1) 확인 문제 풀고, 풀이 과정 정리하기

 

1. 어떤 인공 신경망의 입력 특성이 100개이고 밀집층에 있는 뉴런 개수가 10개일 때 필요한 모델 파라미터의 개수는 몇 개인가요?

 

③ 1,010 개

 

→ 풀이

'wx + b'와 같기 때문에 뉴런의 개수가 10개이고 입력값이 100개라면 다음과 같이 계산할 수 있다.

10 * 100 + 10 = 1010

 

 

2. 케라스의 Dense 클래스를 사용해 신경망의 출력층을 만들려고 합니다. 이 신경망이 이진 분류 모델이라면 activation 매개변수에 어떤 활성화 함수를 지정해야 하나요?

 

② sigmoid

 

→ 풀이

이진 분류 모델이라면 0과 1로 수렴하는 형태가 유리하므로 sigmoid를 사용하는 것이 적합하다.

 

 

3. 케라스 모델에서 손실 함수와 측정 지표 등을 지정하는 메서드는 무엇인가요?

 

④ compile()

 

→ 풀이

간단한 형태의 코드 샘플을 통해 알아볼 수 있다.

dense = keras.layers.Dense(10, activation='softmax', input_shape=(784,))
model = keras.Sequential(dense)
model.compile(loss='sparse_categorical_crossentropy', metrics='accuracy')
model.fit(train_scaled, train_target, epochs=5)
model.evaluate(val_scaled, val_target)

 

 

4. 정수 레이블을 타깃으로 가지는 다중 분류 문제일 때 케라스 모델의 compile() 메서드에 지정할 손실 함수로 적절한 것은 무엇인가요?

 

① sparse_categorical_crossentropy

 

→ 풀이

One-Hot 방식인 경우 'categorical_crossentropy'를 사용하면 되고,

정수 레이블이라면 'sparse_categorical_crossentropy'를 사용하면 된다.

 

 

 

추가 숙제 : Ch.07(07-2) 확인 문제 풀고, 풀이 과정 정리하기

 

 

 

1. 다음 중 모델의 add() 메서드 사용법이 올바른 것은 어떤 것인가요?

 

② model.add(keras.layers.Dense(10, activation='relu'))

 

→ 풀이

보통 다음과 같은 형태로 작성하는 것을 권장하지만, 1-라인으로 작성한다면 ②번 형태로 작성하면 된다.

dense1 = keras.layers.Dense(10, activation='relu')
model.add( dense1 )

 

 

2. 크기가 300x300인 입력을 케라스 층으로 펼치려고 합니다. 다음 중 어떤 층을 사용해야 하나요?

 

② Flatten

 

→ 풀이

2차원 입력이 들어오면 1차원으로 변경하는 layer를 배치하면 된다.

 

keras.layers.Flatten(input_shape=(300, 300))

 

 

3. 다음 중에서 이미지 분류를 위한 심층 신경망에 널리 사용되는 케라스의 활성화 함수는 무엇인가요?

 

ⓑ relu

 

→ 풀이

relu 함수의 경우 "max(0, z)" 함수와 같은 형태로써 이미지 분류에서 유용하다.

 

 

4. 다음 중 적응적 학습률을 사용하지 않는 옵티마이저는 무엇인가요?

 

① SGD

 

→ 풀이

SGD(Stochestic Gradient Descent)는 기본 경사 하강법 옵티마이저의 가장 대표적인 위치에 있다.

반응형

뭔가 흐름이 끊겼지만, 포기하기는 싫어서 달려보련다!

목차 1
목차 2

 

 

06-1 군집 알고리즘 (Clustering)

- 비지도 학습

- 이미지(gray, 2차원) 데이터 다루기

 

06-2 k-평균 (KMeans)

- 하이퍼파라미터 (k)

- 최적의 k 찾기 : inertia

 

06-3 주성분 분석 (PCA)

- 차원축소

- PCA

- 설명된 분산 (explained variance ratio)

 

혼공학습 숙제

 

[ 기본 숙제 : k-평균 알고리즘 작동 방식 ]

- 비지도 학습(Unsupervised Learning)의 가장 대표적인 사례가 바로 군집화(Clustering)이다.

- 군집화(Clustering)의 가장 대표적인 알고리즘이 바로 K-평균(K-Means) 알고리즘이다.

 

- centroid(중심점)을 기준으로 데이터들과의 거리를 최소화하는 것을 목표로 한다.

- 거리를 계산하는 여러 방법이 있으나 보통 유클리드 거리(Euclidian Distance) 방식을 사용한다.

 

- 이를 이용하여 K-Means 알고리즘은 다음과 같은 방식으로 최적화 한다.

 

 

[ 추가 숙제 : Ch.06(06-3) 확인 문제 풀고, 풀이 과정 정리하기 ]

 

1. 특성이 20개인 대량의 데이터셋이 있습니다. 이 데이터셋에서 찾을 수 있는 주성분 개수는 몇 개일까요?

→ 주성분 분석(PCA)라는 것은 차원 축소 방법 중 하나로써, 원본 데이터의 특성 개수와 같거나 적을 수 있다.

     그러므로 정답은 ②번이긴 할텐데.... 사실 ①번이라고 해도 틀렸다고 하기 힘들지 않을까 한다.

     "이 데이터셋에서 찾을 수 있는 최대 주성분 개수는 몇 개일까요?"라고 하는 것이 맞을 것 같다.

 

2. 샘플 개수가 1,000개이고 특성 개수는 100개인 데이터셋이 있습니다. 즉 이 데이터셋의 크기는 (1000, 100)입니다. 이 데이터를 사이킷런의 PCA 클래스를 사용해 10개의 주성분을 찾아 변환했습니다. 변환된 데이터셋의 크기는 얼마일까요?

→ 10개의 주성분을 찾아 변환했다고 했으니 당연하게도 ①번이 정답이다.

 

3. 2번 문제에서 설명된 분산이 가장 큰 주성분은 몇 번째인가요?

→ 분산이 큰 것부터 정렬되므로 ①번 첫 번째 주성분의 분산이 가장 크다.

 

그냥 문제 풀기만 하니까 아쉬워서 직접 코드로 증명을 해봤다.

 

 

여기까지~!!

반응형

정리 한 번 하려다가 만날 미뤄뒀던 아이템을 광복절을 맞이하여 드디어 포스팅해본다.

 

소스코드를 Local PC에 두지 않고, 원격 서버에 저장해놓고 사용해야할 경우가 있다.

주로 실행 환경의 제약이 있어서 그렇게 해야하기도 하고,

아니면 에디터(IDE)를 따로 사용하고자 하는 경우에 그렇게 하기도 한다.

 

지금 하고자 하는 것을 그림으로 표현해보면 다음과 같다.

출처: https://www.whatwant.com

 

1. SSH

  - 일단, Local PC에서 Remote PC로 SSH 접속이 가능한 환경이어야 한다.

  - 그리고 가급적 SSH Public Key 방식으로 접근하는 것이 보안적으로도, 사용성 측면에서도 좋다.

    . SSH Public Key - SSH 공개키

    . 조금 더 알아보는 SSH Public Key

 

출처: https://www.whatwant.com

 

2. VSCode

  - Local PC에 VSCode가 설치되어 있어야 한다.

    . https://code.visualstudio.com

VSCode

 

  - Extensions 중에서 "Remote - SSH"를 선택해서 설치해야 한다.

Extensions : Remote - SSH

 

  - 설치가 완료되면, 오른쪽 메뉴에 뭔가 하나 더 추가된 것을 볼 수 있다.

Extensions : Remote - SSH

 

  - "Remote Explorer" 메뉴를 클릭하면 다음과 같은 화면을 볼 수 있다.

Extensions : Remote - SSH

 

3. Connect

  - 이제 Remote PC/Server에 연결을 해보자.

  - Remote Explorer에서 추가를 해도 좋고,

New Remote

 

  - "Ctrl + Shift + p" 해서 "Remote-SSH ..." 메뉴 중에서 "Connect Current Window to Host ..."를 선택하자.

Connect Current Window to Host ...

 

  - "+ Add New SSH Host..."를 선택하자.

+ Add New SSH Host...

 

  - 가이드 해주는대로 서버 정보를 입력하면 된다.

input

 

  - 뒤의 "-A" 옵션은 선택적이긴 하지만 같이 넣어주자.

input

 

  - 어디에 저장된 Key 값으로 입력할 것인지를 물어본다. 골라주면 된다.

select SSH Config

 

  - 접속 정보 입력은 끝났다.

  - "Connect"를 클릭하면, Remote PC/Server에 연결을 하면서 필요한 패키지들을 추가 설치한다.

Host added!

 

  - 짜잔! 되었다!

connected

 

4. Extensions of Remote

  - 그런데, 이렇게 Remote PC/Server를 연결하게 되면 기존에 사용하던 Extension들이 안보인다.

  - 필요한 것들을 하나씩 추가로 설치해줘야 된다. 이해가 되긴 하지만, 뭔가 불편하기도 하고....

Extensions

 

  - 하지만, 너무 좋다 !!!

VSCode for Remote

 

  - 지금 현재 작업하고 있는 위치가 어디인지는 오른쪽 아래 파란 내용을 보면 된다.

  - Terminal 환경도 너무 편하고, 작업 후 저장한 것이 바로 Remote PC/Server에 반영이 되니 이거 뭔가 좋다 !!!

 

 

반응형

'Programming' 카테고리의 다른 글

NAVER 서비스 API 사용 준비  (0) 2024.11.22
개발자라면 ... Google for Developers  (0) 2023.12.06
개발자들을 위한 AI 검색엔진 - phind  (0) 2023.04.30
Naver API 사용 준비하기  (0) 2019.04.07

요즘 저녁에 러닝을 하기 위해 격일로 조금 일찍 퇴근을 하는데.

비 예보가 있다는 것을 미처 인지하지 못해서 일도 못하고 러닝도 못하는 그런 사태가...

 

이런 핑계(?)로 갑자기 날씨 정보를 API로 얻어오는 것을 한 번 해보고 싶어졌다.

갑자기? 갑자기!

 

날씨 정보를 어디에서 얻어와야 할까!?

당연히 기상청 !!!

https://www.data.go.kr/data/15084084/openapi.do

 

무료인데다가 심지어 샘플 코드까지 제공해주고 있다.

샘플코드 - Python

 

사용을 위해서는 오른쪽 상단에 위치한 "활용신청"을 클릭하면 된다.

활용신청

 

적절한 내용으로 작성하여 신청하면, 즉시 승인이 된다.

신청 결과

 

상세 내용을 보면 다음과 같이 인증키 정보를 확인할 수 있다.

상세 내용

 

이제 잘 동작하는지 검증을 해보자.

 

1. Python 환경을 맞춰야 한다.

- requests 모듈을 사용하기 위해 설치가 필요하다.

 

2. 지역 위경도값을 확인하자.

- 공공데이터 포털에서 제공하는 참고문서를 다운로드 받아야 한다.

  . 기상청41_단기예보 조회서비스_오픈API활용가이드_(240715).zip

 

- 압축을 풀면 문서 파일이 2개 나오는데, 위경도 정보가 있는 엑셀 파일을 확인하면 된다.

 

- 내가 확인하고자 하는 지역의 X, Y 값을 확인하면 된다.

 

3. 코드 작성

- 다음과 같이 간단한 코드를 작성해보자.

  . API 키는 일반 인증키(Decoding )으로 사용했다.

 

- 실행 결과는 다음과 같이 나온다.

 

 

각 값들의 의미나 활용 관련하여서는 다운로드 받은 참고 자료 中 워드 파일을 살펴보면 된다.

sample

 

일단 기본적인 확인을 해봤으니,

아침에 자동으로 알람 오도록 만들어봐야겠다! ^^

반응형

+ Recent posts