
import urllib import time from urllib import parse from urllib.request import Request, urlopen from bs4 import BeautifulSoup naver_url = 'https://dict.naver.com/name-to-roman/translation/?query=' in_file = open("d:\\rep_nm_kor.txt", "r") out_file = open("d:\\rep_nm_eng.txt", "a") def ko_to_eng(name): name_url = naver_url + urllib.parse.quote(name) req = Request(name_url) res = urlopen(req) html ..

점점 기후 위기에 대해서 생각하게 됩니다. 여기 저기 뉴스에서 폭설/폭우/홍수/더위/산불~~~. 여러분들은 호모 사피엔스 (현생 인류)가 2100년에도 살아 남을 수 있을 것 같다고 생각하시나요? 많은 과학자분들은 지금과 같이 사람들이 행동한다면, 2100에는 호모 사이엔스가 지구에서 살아질 수도 있다고 주장하고 있습니다. 물이 100도씨가 되면 끊어서 수증기가 되듯이, 어느 임계점에 도달하면 되돌릴 수 없는 상태가 된다는 것이죠. 제가 어렸을 때 남한의 인구가 4000만 명이라고 했는데, 지금은 약 5천만이 넘죠. 2000년대 초부터 인구가 줄어들면 큰일이 날 것처럼 언론에서 계속 뉴스를 생산하고 있는데, 제 생각은 조금 다릅니다. 자원은 한정되어 있는데 아래 표와 같이 1900년대와 비교해서 지금은 ..

EDB Postgres Advanced Server 15.2를 설치해서 잠깐 테스트해 보았습니다. 오라클 문법을 거의 다 지원을 해서 이미 오라클로 개발된 프로그램을 쉽게 EDB로 포팅 할 수 있을 것 같습니다. DBA는 용기를 좀 내야겠지만, 개발자 입장에서는 오라클에서 EDB로 변경하는 것은 비교적 쉽겠다는 생각이 들었습니다. EDB를 활용한 프로젝트를 진행할지는 미지수이지만 진행하게 된다면 관련된 경험을 공유해 보겠습니다. 오늘 테스트 해본 것 중에는 오라클 12c 사용할 수 없는 wm_concat() 함수 외에는 대부분 사용할 수 있었습니다.
merge 또는 upsert 구문을 yugabyteDB에서는 아래와 같은 구문으로 사용할 수 있습니다. INSERT INTO sample(id, c1, c2) VALUES (4, 'deer' , 'vulture'), (5, 'lion' , 'hawk'), (6, 'cheeta' , 'chaffinch') ON CONFLICT (id) DO UPDATE SET (c1, c2) = (EXCLUDED.c1, EXCLUDED.c2) WHERE sample.c1 'tiger';
To extract data from a CockroachDB SST file using Golang, you can use the engineccl package provided by CockroachDB. Here's an example code snippet that demonstrates how to read the data from a single SST file: package main import ( "fmt" "github.com/cockroachdb/cockroach/pkg/storage/engine" "github.com/cockroachdb/cockroach/pkg/storage/engine/engineccl" "io" "os" ) func main() { // Open the SST..

https://github.com/cocktailpeanut/dalai GitHub - cocktailpeanut/dalai: The simplest way to run LLaMA on your local machine The simplest way to run LLaMA on your local machine - GitHub - cocktailpeanut/dalai: The simplest way to run LLaMA on your local machine github.com 우부투 노트북에서 테스트.. 모델 크기에 따른 메모리 사양 7B => ~4 GB 13B => ~8 GB 30B => ~16 GB 65B => ~32 GB 설치: $ npx dalai llama install 7B 실행: $ np..

대규모 언어 모델의 전성 시대가 열릴 것 같습니다. 선봉장에 OpenAI의 ChatGPT가 있고, 마이크로소프트는 자사의 서비스에 광범위하게 적용하고 있습니다. 요 며칠 동안에 AI 연구를 하거나 종사하는 분들이 자괴감에 바졌다는 웃푼 이야기가 여기저기서 들리고 있습니다. 한가닥 희망은 페이스북에서 학습용으로 공개한 라마 모델을 아파치 라이센스로 풀어주어서 AI의 민주화가 이루어 졌으면 하는 바랍이 있습니다. KoAlpaca에 대해서 알게 되었는데, 라마 모델의 가능성을 맛 볼 수 있었습니다. "stable diffusion"이 오픈소스로 공개 된 후에 기하급수적으로 발전한 결과 달리나 미드저니 보다도 더 좋은 결과를 생성해 내기도 하더군요. https://github.com/Beomi/KoAlpaca ..
- Total
- Today
- Yesterday
- 화분벌레
- 증권정보포털
- JMW 헤어드라이기기
- 배당급
- 오미크론
- 홈 오피스
- 빈센트 반 고흐
- Sybase IQ
- 매직 트랙패드2
- 유가바이트디비
- node.js
- 고체 향수
- 별이 빚나는 밤
- 카카오 에드
- 루미큐브 종류
- 남설 팔찌
- 브리다 정수기
- Life Chair
- Pixel Pals
- yugabyteDB
- 별잉 빛나는 밤
- GKRS
- 코라나 19
- 파나소닉 비데 DL-EH10KWS
- VARIDESK
- 솔리드 쿨론
- 로니카 BCS
- 톡토기
- 르세라핌
- weka
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |