보호되어 있는 글입니다.
https://www.youtube.com/watch?v=aL7zLnaEdAg&t=786s ROS = 미들웨어 모음 로봇을 만들고 소프트웨어를 재사용할 수 있게 하는 역할을 한다. Plumbing - 시스템 내부 동작 구조 지원 process management inter-process communication Device drivers Tools - 사용가능한 도구 simulation visulaization Graphical user interface Data logging Capabilities - 제어를 포함한 구현 control planning perception mapping manipulation Ecosystem - 패키지 재사용 가능성, 오픈 소스 문서가 많다. Package organi..
train.columns # 로지스틱 회귀분석 p-value를 넣을 리스트 선언 result_total = [] train['Result_v1'].unique() train['Result_v1'] = train['Result_v1'].astype('category') 먼저 가설을 세운다. 귀무가설 : 각 feature는 target(Result_v1)에 영향을 주지 않는다. 대립가설 : 각 feature는 target(Result_v1)에 영향을 준다. # url_num_hyphens_dom model = sm.Logit(train['Result_v1'], train['url_num_hyphens_dom']) result = model.fit() result_total.append(result.pvalu..
from catboost import CatBoostRegressor from hyperopt import fmin, tpe, hp, STATUS_OK, Trials from sklearn.model_selection import cross_val_score # 하이퍼파라미터 검색 공간 정의 space = { 'depth': hp.quniform('depth', 3, 16, 1), 'learning_rate': hp.loguniform('learning_rate', -5, -0.5), 'l2_leaf_reg': hp.loguniform('l2_leaf_reg', -16, -1), 'max_bin': hp.quniform('max_bin', 16, 512, 1), 'one_hot_max_size': hp...

비즈니스 해석에 대한 중요한 글을 찾아 더 디벨롭해서 정리해보고자 한다. 아마 이번 기수에서는 배우지 않을 것 같아 쓴다. 모델을 만드는 데 있어 항상 필요한 두 가지의 질문. 1. 모델이 왜 그렇게 예측했는가? 2. 그 모델이 정말로 비즈니스 문제를 해결 할 수 있는가? 위의 두 문제에 대한 걸 알아보자. interpretability(해석 가능성) 과 Explainability(설명 가능성) 왜 모델이 그렇게 예측했는지에 대한 문제 본질적으로 해석 가능한 모델 -> whitebox model 즉, 시각화가 가능하거나(Decision Tree 기반) coef 도출이 가능한 선형 회귀 문제 등이다. Output을 본질적으로 해석할 수 없다면(딥러닝) Blackbox model이 된다. Explainabl..
PyCaret H2O AutoML TPOT Auto-sklearn FLAML EvalML AutoKeras Auto-ViML AutoGluon MLBox pycaret 사용법 !pip install pycaret !pip install markupsafe==2.0.1 !pip install --upgrade pycaret import pycaret print(pycaret.__version__) from pycaret.classification import * #분류 from pycaret.regression import * #회귀 3.3.0이 최신버전 exp = setup(data=train_df, target='Activity_dynamic', train_size=0.9, normalize=True,..