https://www.youtube.com/watch?v=NcOT9hOsceE&t=1s https://www.youtube.com/watch?v=B1K-ti5Lqjc 옴니 휠과 메카넘 휠의 원리에 대해 배운다. 옴니 휠과 메카넘 휠의 원리는 같지만, 자유 슬라이등을 허용하는 방향이 다르다. chassis velocity가 주어졌을 때, 바퀴의 구동 속도가 어떻게 되어야 하는지에 대한 질문을 다룬다. 바퀴 하나에 대해 알아보자.바퀴의 주행 방향은 미끄러지지 않고 구르는 방향이고,xB 축에 대해 각도 베타i 만큼 차이가 난다. 바퀴 가장자리 주위의 롤러는 각도 감마i에 대해 자유롭게 미끄러질 수 있다. 구동방향에 수직인 방향에 대한 감마 i는 옴니휠의 경우 0도이고,메카넘 휠의 경우 45도이다. 이러한 정..
모델의 정의DB에 데이터를 저장하거나, 데이터를 불러오는 서비스 처리를 가능하게 한다.models.py에 작업을 한다. 데이터베이스와 연동해서 작업한다. 장고에서는 SQL문이 나오지 않는다.모델이라는 파이썬 객체를 통해서 직접적으로 DB와 연동해서 작업한다.이렇게 SQL을 몰라도 메서드를 통해서도 DB를 다룰 수 있는 걸 ORM이라고 한다. 데이터 베이스의 환경설정DB 환경 설정mysite/settings.pyDATABASES DATABASES = { "default": { "ENGINE": "django.db.backends.sqlite3", "NAME": BASE_DIR / "db.sqlite3", }}만약에 sql을 쓸거면 사용하는 mysql db를 먼저 설정을 ..
장고 웹서버 실행c:\dev\mysite>python manage.py runserver개발 할 때 간단하게 해당 서버를 127.0.0.1/8000 포트로 테스트 웹서버를 확인할 수 있다. 세팅은 다음과 같이 된다.os.environ.setdefault("DJANGO_SETTINGS_MODULE", "mysite.settings")DJANGO_SETTINGS_MODULE 파일이 없다면 기본 세팅을 실행(현재 실행되고 있는 건 setting 모듈1. django setting 모듈에 설정값 바꾸기2. mysite.setting를 바꾸기 django의 모든 환경설정이 되기 전에 처음으로 불러오는 함수가 또 있다.global_setting.py가 setting.py보다 먼저 로딩되기 때문에, setting.p..
web - application framework 클라이언트 -> 웹 서버에서 어플리케이션이 요청을 받는다. 그리고 DB가 응답해서 되돌려준다. 웹 어플리케이션1. 클라이언트가 보는 화면2. 웹 어플리케이션 코드3. 데이터베이스 프론트html,css, js - 디자이너들 백엔드app으로는 java,pythonDB = mySQL oracle postage SQL 풀스택 = 프론트 + 백엔드 장고는 web application full-stack framework프론트, 백엔드도 전부 지원 django 용어Front쪽 = templateapp = view(서비스 처리 모델)데이터베이스를 처리해주는 객체 - 모델(M) 그래서 장고는 MVT 디자인 패턴을 이용한다고 한다.java 기반은 MVC를 기반으로 작업한..
기본적으로 투 포인터는 대부분 구간의 길이가 유동적으로 변한다.그렇기에 최초로 최소가 되는 부분 문자열을 찾는다면 슬라이딩 윈도우 알고리즘이 더 효율적이다. [1, 2, 3], 4, 5, 6, 71, [2, 3, 4], 5, 6, 71, 2, [3, 4, 5], 6, 71, 2, 3, [4, 5, 6], 71, 2, 3, 4, [5, 6, 7] 최소한의 계산으로 다음 배열의 합을 구한다.그러려면 1+2+3과 2+3+4를 비교했을 때, 1은 빠지고 4가 들어오면 된다. import sysn= int(sys.stdin.readline())b = [int(i) for i in sys.stdin.readline().rstrip().split()]def max_bars_to_leave(n, bars): b..
https://arxiv.org/abs/2402.17764 LLM 양자화에 대한 내용 양자화 - 신경망의 가중치와 활성함수의 출력값을 더 작은 bit로 변환한다.FP32를 quantization -> int8로 변환 양자 LLM의 시대gpt-3 : 1750억개의 파라미터하이퍼 클로바 : 2000억개엑사원 3000억개 에너지 소비 및 경제적 영향에 대한 우려로 양자화를 사용한다.개인이 finetuning하기에는 한계가 있다. 현재는 16bit llm을 4bit quantization 하는 게 트렌드 (LoRA, QLoRA)peft 방식 BitNet b1.58파라미터가 삼진법(-1,0,1)을 사용하여 계산 비용을 줄이고 모델의 효율성을 향상시킨다.더 낮은 비용으로 동일하거나 더 나은 성능을 달성할 수 있음..