일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- LLaMA
- SKT
- naver
- ML
- 생성형 AI
- GPT-3.5
- KoGPT
- Meta
- 네이버
- GPT4
- deeplearning
- AI
- SearchGPT
- LLM
- 딥러닝
- AIVLE
- Stable Diffusion
- KT
- nlp
- gpt
- 인공지능
- TRANSFORMER
- hyperclovaX
- 3기
- 생성형
- generative
- ChatGPT
- GPT-4
- OpenAI
- Today
- Total
목록LLM (36)
Ttoro_Tech

https://www.youtube.com/watch?v=rOmrWC_K6M4 ('23.05.25. 기준 한 달뒤 공개될 예정) LLM? ChatGPT GPT-4 Bard 왜 LLM이 이렇게 인기가 많지? 다양한 Text 학습 다양한 지식을 알고 있음 언어 이해 능력 각 맥락의 문맥을 이해함 ICL : 학습없는 학습 예제 몇 개만으로도 높은 Few-shot 성능 쉬운 API 서비스들 OpenAI의 API 현실적 이슈 인력 LLM을 학습하거나 응용할 AI 개발자 예산 CPU 컴퓨팅은 비싸다 데이터 우리는 충분한 데이터를 가지고 있나? 그외 Privacy, Legal Issue LLM을 이용하는 다양한 방법 1. API 서비스를 활용하기 ChatGPT, GPT-4, HyperClova, ... 같은 서비스를..

https://crfm.stanford.edu/2023/03/13/alpaca.html Stanford CRFM We introduce Alpaca 7B, a model fine-tuned from the LLaMA 7B model on 52K instruction-following demonstrations. On our preliminary evaluation of single-turn instruction following, Alpaca behaves qualitatively similarly to OpenAI’s text-davinci-003, while crfm.stanford.edu Alpaca 7B LLaMA 7B 모델을 Fine-tuning한 모델 학습 방법은 Instruction tuni..
https://blog.goorm.io/commit_8th/ [LIVE] 명령어를 이해하는 오픈소스 언어 모델 ‘KoAlpaca’ 개발기 - 신청 : ~ 2023. 5. 22(월) 17:00 - 일시 : 2023. 5. 24(수) 19:00 ~ 20:30 - 장소 : 온라인(유튜브)/오프라인(판교디지털센터) - 연사 : KcBERT, KcELECTRA, KoAlpaca 크리에이터 이준범 blog.goorm.io 스탠퍼드 대학이 공개한 오픈소스 LLM 'Alpaca' https://ttoro.tistory.com/85 [AIVLE_3기]_16주차_Alpaca(LLM) https://crfm.stanford.edu/2023/03/13/alpaca.html Stanford CRFM We introduce Al..
https://aifactory.space/learning/2419/discussion/339 [챗GPT 러닝데이 | 챗GPT말고 LLM] LLM 기반 챗봇 만들기 - 박찬성 ChatGPT 이후 Large Language Model(LLM)과 챗봇 서비스에 대한 관심이 급증하는 가운데, Meta AI에서 LLaMA라는 LLM을 공개했습니다. 이후 다양한 aifactory.space '23.05.09 세미나 내용을 정리한 글입니다. LLM의 역사 다양한 LLM 모델이 등장함 ChatGPT의 등장, LLaMA 등 다양한 크기의 모델들이 등장하기 시작함 하지만 LLM 모델은 검증이 어려워 다양한 논문은 등장하고 있지만, 검증에 시간이 오래걸림 LLM 모델은 큰 모델 Docker 등을 통해 모델을 배포할 경우 ..
https://n.news.naver.com/mnews/article/003/0011845775?sid=105 네이버 생태계 파고드는 초거대 AI…검색 확 바뀐다(종합) 기사내용 요약 하이퍼클로바X 올 여름 공개…검색 등 서비스 전반 도입 포시마크 조기 흑자전환…웹툰 연말 흑자전환 성공할까 [서울=뉴시스]최은수 기자 = 글로벌 경기 침체에도 불구하고 커머 n.news.naver.com 하반기 고도화된 초대규모 인공지능(AI) 모델 HyperClovaX - 글로벌 생성형 AI 패권 경쟁에 도전 네이버 커머스와 콘텐츠 성장에 힘 입어 올 1분기 시장 전망치 상회하는 실적 성장세가 지속되고 있는 웹툰은 올1분기 적자폭 줄임, 수익성 개선에 속도 연말 흑자전환 달성 시 내년 상장 가능성 하이퍼클로바X (Hype..
https://www.aitimes.com/news/articleView.html?idxno=150665 무서운 ‘오토GPT’ - AI타임스 (영상제작=AI타임스)요즘 인공지능(AI)의 발전 속도에 많은 분들이 놀라고 있습니다만, 최근에는 또 ‘오토GPT’가 우리를 놀라게 하고 있습니다. 이 도구는 오픈AI가 개발한 GPT-4를 기반으로 작동 www.aitimes.com AutoGPT OpenAI가 개발한 GPT-4를 기반으로 작동하는 AI 챗봇 ChatGPT 실수를 스스로 수정하는 자율반복(Autonomous iterations) 기능 별도 메모리 및 다기능성을 추가한 개념의 모델 오픈소스로 공개되어 개인용 컴퓨터에서 구동이 가능함 목표를 정해주면 이를 달성하기 위해서 사람이 일일이 프롬프트를 지시하지..
https://www.lgresearch.ai/news/view?seq=225&page=1&pageSize=12 멈출 줄 모르는 AI 아티스트 틸다의 거침없는 질주 at 뉴욕페스티벌 | LG AI 지난 2월, F/W 뉴욕 패션 위크에서 데뷔하며 혁신적인 행보로 세간의 화제를 불러 모았던 LG의 AI아티스트 ‘틸다(Tilda)’가 이번에는 자랑스러운 수상 소식을 전합니다. 틸다가 지난 7월 미국 뉴욕 www.lgresearch.ai F/W 뉴욕 패션 위크에서 데뷔한 LG AI아티스트 '틸다(Tilda)' 미국 뉴욕에서 열린 세계적인 광고제 '뉴욕 페스티벌(New York Festivals)'에서 다관왕에 오름 뉴욕 페스티벌 - 슬로건 '세계 최고의 작품을 위하여(Celebrating the world's ..

https://ttoro.tistory.com/70 [AIVLE_3기]_11주차_GPT GPT(Generative Pre-Training) 최근 ChatGPT(GPT-3.5)와 GPT-4까지 나오면서 화제가 되고 있는 NLP 모델이다. 11주차 미니 프로젝트에서는 자연어 분류 모델로 BERT를 사용하였지만, 다른 계열의 NLP 모델인 GPT에 ttoro.tistory.com GPT-2 (Generative Pre-Training) [paper] 이전 GPT 와 모델 구조는 비슷하나 더 크고 많은 학습 데이터와 파라미터로 성능을 올린 모델 GPT-2에 대한 자세한 모델은 공개하지 않음 (LLM의 위험성을 알림) 추후 작은 GPT-2 모델에 대해서 공개함 기존 문제점 많은 데이터 셋과 큰 사이즈의 모델을 지..
https://www.aitimes.com/news/articleView.html?idxno=150680 SKT-스캐터랩, 감성 더한 새로운 LLM 공동 개발 - AI타임스 SK텔레콤이 인공지능(AI) 에이전트 \'이루다\'로 유명한 스캐터랩과 협력해 거대한 지식에 감성을 더한 페르소나 챗봇과 새로운 대형언어모델(LLM)을 공동 개발한다.SK텔레콤(대표 유영상)은 스캐 www.aitimes.com SK텔레콤과 스캐터랩이 협력 거대한 지식에 감성을 더한 페르소나 챗봇과 새로운 대형언어모델(LLM) 공동 개발 스캐터랩 인공지능(AI) 에이전트 '이루다', '강다온' 개발 딥러닝 기술을 활용해 사람처럼 친근한 대화를 할 수 있는 '관계 지향형' AI 에이전트를 개발하는 스타트업 감성과 지식 영역을 모두 보유한..

GPT(Generative Pre-Training) 최근 ChatGPT(GPT-3.5)와 GPT-4까지 나오면서 화제가 되고 있는 NLP 모델이다. 11주차 미니 프로젝트에서는 자연어 분류 모델로 BERT를 사용하였지만, 다른 계열의 NLP 모델인 GPT에 대해서도 정리하고자 한다. GPT 기존 방식 다양한 딥러닝 모델들은 레이블링된 데이터를 이용해서 학습을 진행 (Supervised Learning) 하지만 레이블된 데이터를 구하기는 쉽지 않음 GPT에서 제안된 방식 준지도 학습 방식을 제안(Semi-Supervised) 비지도 사전 학습(Unsupervised pre-training) + Supervised fine-tuning 최종적인 목표는 다양한 task에 대해 작은 변화만으로 적용시킬 수 있는..