[anaconda] anaconda 설치 (window, macOS, linux 모두 해당) 문제 발생매 번 conda 설치때마다 방법을 잊어버려서 적어놓는 글.. 문제 해결0. 터미널을 켠다.wget https://repo.anaconda.com/archive/{원하는 conda 버전}bash Anaconda~{위에서 설치한 anaconda 이름} 1. https://repo.anaconda.com/archive/ 에 들어가면 최근 버전부터 conda 버전들이 나와있다. {원하는 conda 버전} 부분에 본인이 설치할 conda (window, macOS, linux 확인할 것) 이름을 가져와 붙인다. Index of /Anaconda-2.1.0-Linux-x86.sh 321.2M 2014-09-25 10:50:30 fd70c08719e6b5caae45b7c8402c6975a8cbc0e3e2a.. [git] 다른 branch에서 내 branch로 데이터 불러오기 git pull origin [conda error] CondaError: Run 'conda init' before 'conda activate' 상황평소와 같이, conda에 새로운 환경을 만들기 위해 conda create를 사용해 환경을 만들고 conda activate 을 했는데 에러가 발생했다.쓰여있는 것 처럼, conda init을 치고, 다시 conda activate를 했는데도 같은 에러 발생 해결방법source ~/.zshrcconda initconda activate 만약 source ~/.zshrc를 쳤을 때 No surch file or directory 에러가 발생한다면 source ~/.bashrc를 해보기 바란다. [git : error] pathspec did not match any file(s) known to git - 새로 브랜치가 만들어지지 않을 때 문제 발생새로운 프로젝트1, 2에 각각 git 연동을 하고, branch를 생성하려 했는데 해당 에러가 뜨면서 브랜치 생성이 되지 않았다. 해당 에러는 로컬 저장소의 git과 remote 저장소의 git 정보가 동기화되지 않아 발생한다고 한다. 해결 과정(실패)다른 사람들은 git remote updategit checkout 브랜치명(새로 생성할)해당 명령어로 해결됐다는데, 나는 여전히 똑같은 에러만 떴다. 해결 과정(성공)git remote updategit checkout -b (브랜치명) (기존에 존재하는 브랜치명)위와 같이 참조할 branch명을 같이 넣어주니 branch 생성이 됐다.나는 main branch를 그대로 가져올 예정이었기 때문에,git checkout -b (새로 만들 브랜치명).. [패스트캠퍼스 베타러너 후기] 테디노트의 RAG 비법노트 : 랭체인을 활용한 GPT부터 로컬 모델까지의 RAG 가이드 Langchain이란 LLM API 등으로 이용해 실제 애플리케이션으로 묶어주는 라이브러리이며 RAG를 활용해 외부지식을 연동할 수 있도록 도움을 주는 도구이다.RAG란 LLM의 생성 능력과 외부 지식 베이스 정보를 결합함으로써 사실에 기반한, 보다 정확한 정보를 제공해줄 수 있는 도구이다. 기존의 LLM은 새로운 데이터셋을 통해 파인튜닝을 진행하지 않는 한, 최근의 지식을 반영할 수 없다는 단점이 있었다. RAG는 이러한 단점을 보완해 줄 강력한 도구로, 최근 나는 이 RAG에 대한 관심이 많았다. inflearn의 RAG 강의를 수강하고 현재 진행하는 프로젝트에 RAG를 녹이고 있는 와중, 좋은 기회로 패스트 캠퍼스에 있는 '테디노트의 RAG 비법노트 : 랭체인을 활용한 GPT부터 로컬 모델까지의 R.. [밑바닥부터 시작하는 딥러닝1] 밑딥 스터디 CH7 정리 합성곱 신경망 (CNN, Convolutional Neural Network)fully-connected : 인접하는 layer의 모든 뉴런과 결합되어있는 상태Affine layer : 완전히 연결된 layerConvolutional layerAffine layer와 다른 점affine layer 대신 conv,pooling이 추가됨. (‘Affine-ReLU’ → ‘Conv-ReLU-Pooling’)각 layer 사이에는 3/4차원 데이터가 흐름 → 데이터의 차원을 그대로 가져갈 수 있어서 이미지처럼 형상을 가진 데이터를 제대로 이해할 가능성이 있음Affine layer에서는 3차원 데이터를 1차원 데이터로 flatten 시켜줘야 했지만, CNN layer에서는 그럴 필요가 없음feature map :.. [밑바닥부터 시작하는 딥러닝1] 밑딥 스터디 CH6 정리 OptimizationOptimization : parameter의 최적값을 찾는 것SGD (확률적 경사 하강법)class SGD: def __init__(self, lr = 0.01): self.lr = lr def update(self, params, grads): for key in params.keys(): params[key] -= self.lr * grads[key]$\mathbf{W} \leftarrow \mathbf{W} - \eta \frac{\partial L}{\partial \mathbf{W}}$ 단, 식으로는 (0,0)이 최솟값이 되지만, 그래프에서는 대부분이 (0,0)방향을 보이지 않음 이런경우 학습 시 비효율적인 움직임을 보임momentum$\mathbf{v} \lef.. [밑바닥부터 시작하는 딥러닝1] 밑딥 스터디 CH5 정리 Backpropagationbackpropagation가중치 매개변수의 기울기를 효율적으로 계산하는 방법덧셈 노드의 backpropagation값을 그대로 다음 노드로 전달함곱셈 노드의 backpropagation노드에 연결된 다른 노드값을 곱함activation function의 forward/backwardReLUclass Relu: def __init__(self): self.mask = None def forward(self, x): self.mask = (x Sigmoidclass Sigmoid: def __init__(self): self.out = None def forward(self, x): out = 1 / (1 + np.exp(-x)) self.out = out retur.. [밑바닥부터 시작하는 딥러닝1] 밑딥 스터디 CH4 정리 loss function신경망 성능의 ‘나쁨’을 나타내는 지표로, 현재의 신경망이 훈련 데이터를 얼마나 잘 처리하지 못하느냐를 나타냄SSE(오차제곱합, sum of wquares for error)$$ E = \text{\(\frac 1 2\)}\displaystyle\sum_k (y_k - t_k)^2 $$CEE(교차 엔트로피 오차, cross entropy error)$$E = -\sum_{k} t_k \log y_k $$one-hot encoding : 정답 위치의 원소만 1, 나머지는 0❓ 최적의 매개변수를 탐색할 때 정확도를 지표로 삼아서는 안 되는 이유정확도는 비연속적인 함수이므로.ex) 100개 중 95개가 정답이면 95%, 96개가 정답이면 96%. 기울기가 가리키는 쪽 = 각 장소에서 함.. [밑바닥부터 시작하는 딥러닝1] 밑딥 스터디 CH3 정리 활성화함수시그모이드 함수$h(x) = 1/1+exp(-x)$시그모이드와 계단함수의 차이점 : 매끄러움. 계단함수는 0 or 1의 값을 돌려주지만, 시그모이드 함수는 0과 1 사이의 연속적인 값을 가지고 있음.ReLU 함수Rectified linear Unit입력이 0 이상이면 값을 그대로 사용, 0 이하면 0을 출력def relu(x): return np.maximum(0, x)*배열의 차원 수 : np.ndim() 함수로 확인 가능 [Mathmatics for ML] Principal Component Analysis (PCA) 목표 : dim 줄이기linear matrix B를 찾아서 Data 축소하기. B의 방향이 결국 data convergence matrix의 eigenvector들. M개의 가장 큰 eigenvector들을 모은 matrix = BPCA 순서1. Centering. Centering the data by subtracting mean → 각 dim마다 평균 0이 되도록2. Standardization. Divide the data points by the standard deviation for every dimension (original feature) d=1,…,D → 각 dim마다 분산 1이 되도록3. Eigenvalue/vector. Compute the M-largest eigenvalues .. [Mathmatics for ML] 2. Convex Optimization KKT condition이 무엇인지, Lagrange function과 어떤 관련이 있는지Optimization : 최적화gradient descent : 경사 하강법infimum : 하한convex : 볼록concave : 오목 Optimization의 목표 : n개의 training data에 대한 model의 parameter 최적화 ($minL(\theta)$)각 iteration에서 사용하는 데이터의 양에 따른 분류Batch gradient descentMini-batch gradient descentStochastic gradient descent적응형 업데이트 방법에 따른 분류Momentum, NAG, Adagrad, RMSprop, Adam,,,1. Optimization Using Gra.. 이전 1 2 3 4 5 다음