| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | |
| 7 | 8 | 9 | 10 | 11 | 12 | 13 |
| 14 | 15 | 16 | 17 | 18 | 19 | 20 |
| 21 | 22 | 23 | 24 | 25 | 26 | 27 |
| 28 | 29 | 30 | 31 |
- 생성형
- generative
- 인공지능
- deeplearning
- Meta
- GPT4
- KoGPT
- ChatGPT
- Stable Diffusion
- 3기
- SearchGPT
- 생성형 AI
- GPT-4
- gpt
- SKT
- nlp
- 네이버
- AIVLE
- GPT-3.5
- naver
- LLaMA
- 딥러닝
- LLM
- hyperclovaX
- ML
- AI
- TRANSFORMER
- KT
- OpenAI
- Today
- Total
목록전체 글 (143)
Ttoro_Tech
최근 Mysql / Oracle / Postgresql 외에 Tibero7 DB에 python을 연결해야 하는 이슈가 있어Tibero7 DB 연결 방법 및 python에서 연동 테스트 하는 방법을 정리하고자 한다.환경OS : Ubuntu 22.04DB : Tibero71. Ubuntu에 Tibero7 DB 를 연결하기 위한 pkg 설치Mysql, Oracle, Postgresql 과 달리 Tibero7 의 경우 python에 연결 모듈이 따로 있지 않아 unixodbc를 사용해야함apt-get updateapt-get install -y unixodbc unixodbc-dev2. Tibero 7 드라이버 설정unixodbc에 Tibero7 드라이버 정보가 없기 때문에, odbcinst.ini 을 편집하여..
Deep & Cross Network v2 (DCNv2) 에서 개선된 버전DCN-v2를 확장하여, information gate를 통해 중요한 상호작용을 동적으로 필터링할 수 있게 됨1. Gated Deep & Cross Network [Paper]DCNv2에서 개선점Cross Network기존 : 가중치를 2차원으로 두어 상호 피처의 정보를 유지한 채로 가중치를 업데이트할 수 있게 됨개선 : Information gate를 통해 중요한 특징을 식별할 수 있으며, 명시적인 정보를 더 잘 표현할 수 있게 됨기본 Cross Network 구조에 게이팅 메커니즘(gating mechanism)을 도입함으로써, 중요도가 높은 feature interaction을 선택적으로 학습할 수 있도록 개선되었다. 이를 통..
Deep & Cross Network에서 개선된 버전1. Deep & Cross Network V2 [Paper]DCN에서 개선점Cross Network기존 : Cross Network의 경우 각 임베딩 layer를 선형 형태로 가중치를 두어 상호 피처 영향력을 계산함개선 : 가중치를 2차원으로 두어 상호 피처의 정보를 유지한 채로 가중치를 업데이트할 수 있게 됨또한 처음 입력 정보를 원소간 곱으로 계산하여 정보 손실을 방지함이를 통해 CrossNetwork는 기존 DCN 모델보다 더 풍부하게 표현이 가능함2. 모델 구조DCN v2의 경우 기존 DCN과 달리 2가지 형태로 구조를 가질 수 있음ParallelW&D 및 기존 DCN과 동일한 형태로, CrossNetwork 정보와 Deep Network 정보..
추천 모듈을 개발하면서 있었던 일에 대한 기록1. Wide and Deep가장 처음 개발한 추천 모델추후 내용 정리할 예정2. Wide & Deep Model 문제점피처 엔지니어링Wide 와 Deep 파트에 들어가는 피처(column)를 사용자가 직접 선택해야 하는 어려움이 있음직접 선택하는 과정(피처 엔지니어링)은 데이터 분석에 대한 이해가 필요하기 때문에 매우 어려운 작업자동으로 피처를 선택하는 방법은 없을까?매우 Sparse한 데이터추천 시스템의 학습 데이터의 경우 범주형 데이터로 이뤄짐범주형 데이터의 경우 원 핫 벡터로 만들어 학습을 하기 때문에 피처의 분산(유니크 데이터 개수)이 클수록 매우 희소한 벡터가 만들어지게 됨희소 벡터를 사용하게 되는 경우, 모델 학습에 방해가 되며 자원도 많이 소모됨..
https://arxiv.org/abs/2409.12618 Iteration of Thought: Leveraging Inner Dialogue for Autonomous Large Language Model ReasoningIterative human engagement is a common and effective means of leveraging the advanced language processing power of large language models (LLMs). Using well-structured prompts in a conversational manner, human users can effectively influence an LLM to develarxiv.orgIterati..
https://arxiv.org/abs/2409.03271 Strategic Chain-of-Thought: Guiding Accurate Reasoning in LLMs through Strategy ElicitationThe Chain-of-Thought (CoT) paradigm has emerged as a critical approach for enhancing the reasoning capabilities of large language models (LLMs). However, despite their widespread adoption and success, CoT methods often exhibit instability due to their inabarxiv.org SCoT : 중..
4. BGD(Batch gradient descent)와 SGD(Stochastic gradient descent)의 장단점을 말해주세요- 사전 지식배치 : Batch한번에 여러개의 데이터를 묶어서 입력하는 것, 이는 GPU의 병렬 연산 기능을 최대한 효율적으로 사용하기 위해 쓰는 방법Iteration 1회당 사용되는 training data set의 묶음(Iteration은 정해진 batch size를 사용해서 학습(forward-backward)를 반복하는 횟수) 경사하강법 : Gradient descent손실 함수 F를 최적화하는 방법 중 하나머신러닝 모델을 평가하는 방법 : 손실함수(loss function)를 통해 평가머신러닝 모델의 목표 : MSE(mean squared error)가 최소가 ..
기술 면접 취업 준비를 하면서 다양한 기술 면접을 보았고, 답변을 하면서도 내가 정말 그 기술에 대해 잘 알고 있는가, 내가 쓴 기술을 실무에 쓸 수 있을 만큼 잘 이해하고 있는가 에 대해 자기 반성을 하게 되었다. 해당 게시글은 면접을 볼 때마다 업데이트 될 예정이며, 게시글이 길어지면 1탄, 2탄 등 나뉘게 될 것 같다. 자기 반성의 공간 같은 곳으로, 회사는 비공개로 작성될 것 같다. 1. Git을 통한 협업을 하셨다고 하셨는데, pull request는 사용하지 않으셨나요? - 사전 지식 Fork와 Pull request Fork 배경) 다른 사람의 프로젝트가 마음에 들어, 같이 프로젝트에 참가해, 기여자 역할을 하고 싶다. 하지만 기여를 하기 위해서는 프로젝트의 관리자가 나를 기여자로 등록해야한..
https://www.aitimes.com/news/articleView.html?idxno=156630 구글, 모르면 "모른다"고 답하는 AI 개발 - AI타임스 구글 연구진이 인공지능(AI)에 \"모른다(I don’t know)\"라고 말하게 가르치는 방법을 고안해 냈다. 이를 통해 대형언어모델(LLM)이 질문에 대한 답변을 제공할 때 확신의 정도를 표현, AI와의 상호 ... www.aitimes.com 구글 연구진 인공지능(AI)에 "모른다(I don't know)"라고 말하게 가르치는 방법 고안 이를 통해 대형언어모델(LLM)이 질문에 대한 답변을 제공할 때 확신의 정도를 표현 AI와의 상호 작용을 신뢰할 수 있게 만들겠다 벤처 비트 어스파이어(ASPIRE) 구글이 질문에 대한 LLM의 답변을 ..
https://www.aitimes.kr/news/articleView.html?idxno=29556 [AI 이슈] 딥마인드 AI 모델 'GNoME', 220만 개 새로운 소재 구조 예측!...곧 생산될 수 있는 '후보 물질 구글 딥마인드(DeepMind)가 인공지능(AI) \'지노메(Graph Networks for Materials Exploration. 이하, GNoME)\' 이용해 미래 기술을 강화할 수 있는 38만개의 안정적인 재료를 포함하여 220만 개의 새로운 소재 ... www.aitimes.kr 구글 딥마인드(DeepMind) 인공지능 지노메(Graph Networks for Materials Exploration - GNoME) 미래 기술을 강화할 수 있는 38만개의 안정적인 재료를 포..