previous goals
This project will provide/develop two numerical methods to make use of RNA velocity
-
Quasi potential from Freidline-Wentzell theory using ordered line method – to estimate attractor cell states and compute transition pathways
-
Fokker Planck equation in reduced space – to model the dynamics and do virtual gene down- / up-regulation
Current situation
为了防止大家看不懂,我用简短的语言介绍一下背景,再在此基础之上谈一谈目前的挑战。其实这个领域的东西不难,但传统学科缺乏像计算机一样普及的社区氛围,再加上这个领域的老头儿喜欢为自己建立技术壁垒,我的导师也基本不会给予我指导,所以我刚开始接触的时候很长时间内都很痛苦,最痛苦的是这个领域的论文篇幅又臭又长,方法论上缺乏系统性,名词不做解释地层出不穷。你在理解这些东西的路上一不留神就会走偏,但其实搞明白以后一两句话就能说完。目前大部分的单细胞转录技术拿一个barcode来标识细胞,再用一小段UMI(你不用管它是什么)来标识mRNA。
基于这个单细胞测序技术的数据,细胞作为对象,不同的基因就是对象的属性,数据一般是稀疏的,会存在很多零值,怎么利用基因的调控来填补这个零值是一个挑战
传统做差异分析,我们可以用方差分析假设检验的方法,但在单细胞数据上应该如何去有效稳健地刻画这个异质性?现在的方法大多是基于基因表达谱进行无监督聚类(t-SNE,UMAP),这又是一个挑战
进一步地我们想要了解细胞所属的精确细胞类型,就像查字典一样我们需要和reference进行mapping。我们需要用各种算法来学习reference的特征来把它映射到新的数据集上,reference可以用基因表达谱,特征基因,特征基因谱,数学模型等方法来构建。从前我们需要对集群特异性基因进行文献调查,在改动参数或者数据集之后我们还需要对其进行手动的重评估,即使在相关组织的数据集中也不能进行知识的共享。为了把人工标注类型从劳动密集型向自动化进行转变,出现了一些基于marker基因的分类方法。现在有一种新的想法是把分化的过程加到构建的过程中去,如果构建又是一个挑战
轨迹推断,这也是我之前关注过的一个方向,给大家一个数据,光在2019年据不完全统计就出现了超过60种TI的方法。大部分的方法都是基于概率图模型的,最近还出了一种新的用RNA丰度的方法进行排序。以我个人的经验来说,不同的TI算法结果真的大相径庭,有一位学者曾经说过生物学需要一个包含层级结构的/稳定的inference数据库,真的很重要,这相当于这个方向的基石,不然所有人用自己藏起来的数据,都在单打独斗,公说公有理婆说婆有理
结合癌细胞肿瘤细胞在患者体内的空间位置信息,可以用来估计细胞转移的来源和方式等。或者通过测量每个亚克隆的有丝分裂和凋亡细胞的数量来估计增殖率、突变率和死亡率,这样将极大地有利于癌症中阳性和阴性选择的检测,并提高对亚克隆耐药性的预测精度。
对于不同时间点,组织,个体,测量值的数据,需要一个有生物意义的计算框架去集成。
如何对分析工具进行系统的基准评估,是否能产生高质量的预期结果,是否能够稳健地应对高水平的测序噪音和技术误差,动态可拓展性等等
sklearn中的fit
sklearn中的所有方法在使用前都要进行fit,它是一个适配安装的过程,然后tranform进行标准化,降维,归一化的操作。fit_transform就是结合了这两部的操作的一个简化函数
pd中的一些函数
在归一化的需要把训练数据和测试数据合在一起做,但之后又要分开,这里可以用ID来进行区分,取出的时候可以用merge函数,实质是表连接,这里用左连接就可以
mean函数求平均,sub做减法,div做除法,gt表示大于,abs求绝对值,mask函数把满足条件的筛除掉,where函数保留满足条件的(或者是用第二个参数替换掉),fillna函数替换掉NA值(method为ffill的时候用最后一个有效值去替换),to_csv保存为csv文件,drop函数扔掉特定的columns
dummies函数可以把类别变量变成indicator的变量,align函数用指定的连接方法(inner或者outer)在他们的轴上对齐
sklearn的proprecess包
Imputer函数可以设置缺失值类型,填充规则等。然后再用设置好的参数去fit和transform。
PolynomialFeatures函数设置多项式构造特征的方法参数。然后同样需要fit和transform
KFold交叉验证
平时我们会分成训练集和测试集(hold out留出法)来比避免在训练中出现过拟合的问题,但是小数据集上会浪费掉测试集的数据,所以用K折的方法来综合评判模型的性能
通常我们在进行划分的时候会记录下较为优异的超参数,然后再以最优参数进行重新训练
ShuffleSplit分隔函数是随机分隔。KFold().split(data) 会把数据分成train和valid两部分,里面有两部分数据的id。RepeatedKFold是多次K折。所谓留一法是满折时候的情况,有专门的函数LeaveOneOut,留P法的函数是leavePout,建议的K值是5或10。如果target的不均匀现象比较严重,可以在方法前面加上Stratified来修正。时间关联的数据有TimeSeriesSplit
model上用到了XGBRegressor,fit部分verbose指示多少轮打印,early_stopping_rounds指示早停轮数,eval_set以元组列表的格式给出评判数据集和它的标签
validation_curve可以画出曲线图
Evaluate模型
# MSE均方误差
from sklearn.metrics import mean_squared_error
# MAE平方绝对误差
from sklearn.metrics import mean_absolute_error
# R方
from sklearn.metrics import r2_score
# 准确率
from sklearn.metrics import accuracy_score
# 格式都是test,pred
accuracy = accuracy_score(y_test,y_pred)
print("accuarcy: %.2f%%" % (accuracy*100.0))
交叉验证模型的评估可以用 scores = cross_val_score( clf, iris.data, iris.target, cv=5, scoring=’f1_macro’)
Cross_validate方法在scroing部分可以传入列表或者字典,返回的字典格式为dict_keys([‘fit_time’, ‘score_time’, ‘test_score’, ‘train_score’])
Cross_val_predict方法返回的是交叉验证之后的输出值
bootstrapping自助法
基本思想是对于含有m个样本的数据集D,有放回地采样m次,得到一个会有重复数据的集合作为训练集,没有采样到的样本作为测试集
XGboost和GBDT的区别
GBDT中预测值是由所有弱分类器上的预测结果的加权求和,其中每个样本上的预测结果就是样本所在的叶子节点的均值。而XGB中的预测值是所有弱分类器上的叶子权重直接求和得到,计算叶子权重是一个复杂的过程
xgboost的好处:
正则化: 代价函数里包含正则项,控制叶子结点个数和叶子结点输出的score的L2模的平方和
并行处理:在特征粒度上进行并行
灵活性:支持自定义目标函数和评估函数
剪枝:从顶到底建立子树,再反向剪枝,不容易陷入局部最优
内置交叉验证:允许在每一轮boosting中用交叉验证
GridSearchCV
将需要遍历的参数定义为字典传入,n_jobs是并行数,可以设置为-1与CPU和核数自动匹配。grid_scores_用于查看不同参数情况下的评价结果,best_params_用于查看最佳结果的参数组合,best_score_提供最好的模型分数
版本更新之后grid_scores_被删除,用cv_results_代替
其他参数在命名和使用上都比较清晰
原理是把训练集分成十份,在每一个参数上做十次验证集测试取平均作为分数,最后选择评分最高的参数。最后用全优参数在全部训练集上训练一个新模型
xgboost调参日记
params = {
## general p
'booster': 'gbtree', # gblinear基于 线性模型
'silent': 1, # 设置成1则没有运行信息输出,最好是设置为0
'nthread': 4, # cpu 线程数,设置为-1的时候使用所有的线程
## booster p
'n_estimators': 100, # 生成的最大树的数目,也就是最大的迭代次数
'learning_rate':0.1, # 学习率,每一步迭代的步长
'gamma': 0.1, # 节点分裂所需的最小损失函数下降值,越大越保守,表示节点越不容易分裂,一般0.1、0.2这样子
'subsample':1, # 对于每棵树随机采样的比例,值越大表示越容易过拟合
'colsample_bytree': 0.7, # 对于每棵树的列采样比例
'colsample_bylevel': 1, # 每棵树每次分裂的列采样比例
'max_depth': 8, # 构建树的深度,越大越容易过拟合,一般为3-10。0代表没有限制
'max_delta_step': 0, # 每棵树权重改变的最大步长,0表示不做限制,一般只有在样本极不平衡的时候才有用
'lambda': 2, # 控制模型复杂度的权重值的L2正则化项参数,参数越大,模型越不容易过拟合(ridge)
'alpha': 0, # 权重的L1正则(lasso),高维度的时候使算法速度更快
'scale_pos_weight': 1, # 在类别很不平衡的时候,把参数设定为正值可以使算法更快收敛,通常设置为负样本和正样本的比值
## task p
'objective': 'multi:softmax', # reg:linear(线性回归)/ reg:logistic(逻辑回归)/ binary:logistic(二分类输出概率)/ binary:logitraw(二分类使出权重和数据乘积) / count:poisson(计数问题的泊松回归)/ multi:softmax(多分类)/ multi:softprob(多分类输出概率)
'num_class': 10, # 类别数,在multisoftmax的时候使用
'eval_metric': rmse, # rmse(均方根误差)/ mae(平均绝对值误差)/ logloss(负对数似然)/ error@t(二分错误率,t表示阈值)/ merror(多分类错误率)/ auc(曲线下面积)/ ndcg(Normalized Discounted Cumulative Gain), map(平均正确率)
## 其他
'min_child_weight': 3,
'seed': 1000
}
训练完之后可以保存模型
dump model可以导出模型和特征映射
- General parameters 该参数参数控制在提升(boosting)过程中使用哪种booster,常用的booster有树模型(tree)和线性模型(linear model)
- Booster parameters 这取决于使用哪种booster,调控模型的效果和计算代价
- Task parameters 控制学习的场景,例如在回归问题中会使用不同的参数控制排序
算法的调优是一个从欠拟合到过拟合的过程,学习速率决定每一轮迭代训练集误差的下降速率,迭代轮数决定我们什么时候停止我们曲线的学习过程,所以有人建议这两个最后调。其他的参数重要性越高的越前调
在xgboost中,最重要的是max-depth,默认值为6,这个参数是每棵决策树的最大深度,一般这个参数越大,每一次迭代训练集误差下降的越快,因为树深度越大,每一轮对训练集的拟合程度也就越高。因此首先看这个参数在什么时候交叉验证集误差的最小值低且稳定。之后调整subsample和colsample_bytree,这两个参数分别代表构建决策树时的行抽样和列抽样,一般取值范围为[0.5,1]。最后调学习速率和迭代轮数
https://www.cnblogs.com/TimVerion/p/11436001.html里可以参考fit中eval_set的用法和
调参对于模型准确率的提高有一定的帮助,但这是有限的。最重要的还是要通过数据清洗,特征选择,特征融合,模型融合等手段来进行改进
Hyperopt调参
之前知道Grid Search和Random Search,前者是全空间扫描,有些慢,后者容易错失一些重要的点,并且在调整第一个模型参数的时候也是用的Grid Search。
后来了解到一种通过贝叶斯优化(序贯模型优化,Sequential model-based optimization)的方法,Hyperopt。它结合MongoDB还可以进行分布式调参
传统调参的方法不是启发式的,但贝叶斯调参可以根据之前结果的验证情况来挑选下一次的迭代超参数。贝叶斯优化分为四个部分:目标函数,搜索空间,优化算法,结果。
实际操作下来发现对于小数据集并不是很稳定,而且有一些配合sklearn上的bug尚未解决,而且Hyperopt 设计伊始,是包括基于高斯过程与回归树的贝叶斯优化算法的,但是好像现在这些都还没有被实现
模型
ARIMA模型是传统统计学的,比较简单
RNN和LSTM Networks,还有Prophet模型
Xgboost参数介绍https://www.cnblogs.com/TimVerion/p/11436001.html
https://www.jianshu.com/p/1100e333fcab
LSTM代码https://blog.csdn.net/Muzi_Water/article/details/103921115
增量训练
如果数据量很大,通常做法是抽样训练多模型然后加权
但如果数据是偏态的,我们需要在之前就针对整个数据集做变换和异常处理。我们做特征变换,用到的主要是特征的最小值最大值,均值,方差,变异系数,k阶原点矩,k阶中心距,偏度,峰度等几个基本统计量,因此,我们需要算出每一个特征的这些统计量,在新的数据到来的时候,更新这个统计量,在训练模型之前,用全局统计量更新局部数据(抽样数据),以保证数据整体分布信息能够充分利用。
计算全量数据的统计量的时候内存容易不够用,这时候可以上spark+大数据集群。但如果只有有限的内存,训练的时候可以用SGD或者mini_batch SGD,方法上可以选择sklearn,原生lightGBM或者keras
特征选择
过滤法,包裹法和嵌入法。
过滤法:统计方法对特征进行评分和排序
包裹法:使用学习器的性能指标作为特征子集的评价准则
嵌入法:在训练的过程中自动完成特征选择
学生党建议造轮子,老油条可以使用的sklearn的feature_selection模块
光伏发电预测启示
利用之前时段(2016-12-31 —> 2018-1-1)的发电数据,预测未来两个月跨度的用户用电量。特征上有瞬时有功,瞬时无功,ABC相电流,ABC相电压,正向有功(预测项)。34万的数据量,正向有用功需要进行差分处理,对照一下数据的标签,删除多余的特征。刚开始需要把特征都沿着时间可视化一下观察一下总体分布,算平均值和标准差,用3法删除异常值,对每日的采集频数统计发现缺失值
属性筛选的时候,构造了功率项,累计值,计算了相关性
LoadData部分进行数据清洗
splitDataSet按用户类型进行数据划分
reduceDataset根据属性相关性剔除无关特征,构造新的特征,按照前值补全方法处理缺失值
loadDataset进行数据提取
loadWeatherData进行外部天气数据提取
normData进行归一化处理
loadFutureWeatherData提取预测数据集的天气特征
saveFile保存程序的中间文件
PredictLabel部分执行训练和预测的过程
nn_model为训练样本训练神经网络模型
nn_model_weather用预测数据训练预测模型
predictLabel用训练好的模型进行label预测
predictDataFunc用训练好的模型进行属性预测
concatCSV进行预测结果的拼接
模型优化:选80%的数据训练10次,以MSE为标准优化模型参数,用预测集的MSE选择最终的模型
预测过程:外部数据预测瞬时有用功,然后再用瞬时有用功预测日正向有用功的增量
效果评估:K折评估两个模型,以及最终累加的准确率
时间序列还可以选用LSTM,用一个门来确定信息的保留或舍弃,模型训练使用keras库,首先是确定为一个Sequential模型,然后add LSTM层,Dense代表的是输出的维度,因为只有一个维度,所以设置为1。损失函数使用的是mae,优化器使用的是adam
https://mp.weixin.qq.com/s/Yix0xVp2SiqaAcuS6Q049g
时间序列
时间序列的分析和预测ARIMA(差分自回归移动平均模型)
不同于截面数据,时间序列预测需要用过去的数据来预测未来的数据,我们还需要把预测数据集的特征和历史数据的特征做合并之后一起用于训练,时间滑窗来人为构造target,最后进行堆叠
https://github.com/wepe/O2O-Coupon-Usage-Forecast
多输出回归问题
sklearn.multioutput中的MultiOutputRegressor可以接受分类器,将其包装成多输出的格式,其实就是对每一个target训练一个模型。但这样考虑的时候无法利用目标之间的相关度信息
RNA分析练习
https://www.jianshu.com/p/bce19672879e
https://www.jianshu.com/p/1e7acde1a318
用到的语句:
df.columns.get_loc(“pear”) 找到某列名所在的列序号
列是axis = 1的情况
数组中寻找数字位置的时候用a.index(num)
LogisticRegression和LogisticRegressionCV
区别是CV用了交叉验证来选择正则化系数C,class_weight可以选balanced。solver参数是损失函数的优化方法,liblinear用坐标轴下降的方法优化,lbfgs是拟牛顿法的一种,newton-cg是牛顿法,sag是随机平均梯度下降
数据预处理
数字如果比较大,或者不是正态分布的时候,为了让结果更好收敛。我们可以做标准化和归一化操作
min-max标准化就是01标准化,z-score标准化就是标准差标准化。一般来说在涉及距离度量相似性的时候z-score的表现更好一些。还有一些其他的处理方法在preprocessing包里都有。
多分类的AUC
两种方法分别从macro和micro,也就是类别和个体的角度去转化成二分类的case
视频编解码原理
源视频数据量很大,在分辨率上还要考虑位色,秒帧等等,对存储空间的带宽的要求都很高。所以需要进行编码,从第一代的MPEG-1/2 到 第二代H.264/AVS 到 第三代H.265/AVS2,压缩的力度越来越大。
帧内压缩可以用空间冗余的思路来进行替代
帧间压缩可以用时间冗余的思路来进行替代
上述的两种方法会压缩成一串字符串,继续进行压缩就属于编码冗余的范畴
编码的核心技术步骤为预测,变换,量化,熵编码,滤波
预测分为帧内预测和帧间预测。I帧是关键帧,一般只做帧内预测,根据前一幅图像预测得到的图像叫P帧,根据前后双向预测得到的叫做B帧。根据I帧和一系列B帧,P帧组成的一组图像叫做GOP
变换指的是用比如离散余弦DCT,小波变换,把图像从空域变换到频域上,进行队形调整
量化是对变换后的矩阵通过一个步长进行分级,这样高频的右下角信息就会变成0,然后对数值进行Z字形扫描得到数字
熵编码是先行程编码把连续重复的数据用重复的次数表示,然后进行变长编码(霍夫曼编码)进一步减少原始数据长度
多分类任务
随机森林: 一种基于树和bagging方法的集成分类器,该分类器不需要缩放和去噪的处理
逻辑回归分类器:受变量范围的影响,且容易收到多重共线性的影响。耗时会略长,要减少时间可以结合PCA来做
主成分分析:把低级变量转换为更高维的空间,从而减少所需变量的数量
ANN人工神经网络:非线性,具有自动特征工程和降维的功能。耗时略长
线性支持向量机SVM:耗时少,准确率也还不错
XGBoost:可以自动减少特征集,效果很好,但耗时很长
异常检测
还有另外两个概念,噪声消除指的是从有意义的信号中消除噪音,新颖性检测是识别出未观察到的模式
统计模型下的异常是对数据分布作出假设,然后用距离均值作为离群判断
线性模型与非线性模型是找出在低维嵌入表现不好的数据,因为正常点的重建误差应该小于异常点
相似度衡量模型是通过观察数据之间的邻近程度来区分
集成与模型融合:异常检测是无监督的,所以基本是通过bagging的方式集成的
数据不平衡问题
扩大数据集,其他评价指标,数据重采样,尝试产生人工数据样本,不同的分类算法,对模型进行权重惩罚,转换思路(转为异常检测)
更换损失函数,Focal Loss在原来带权值的交叉熵函数上进行改进,
特征选择
去掉取值变化小的特征,单变量特征选择(卡方检验),皮尔森相关系数,互信息和最大信息系数,距离相关系数,基于学习模型的特征排序,线性模型加正则化(L1是Lasso,迫使模型变稀疏;L2是Ridge,迫使系数变平均),随机森林(平均不纯度减少,平均精确率减少)
卡方检验是用方差来衡量某个观测频率和理论频率之间差异的算法,皮尔森检验就是一种卡方检验的方法,用方差和的方式计算卡方值,算出自由度,比较卡方值和对应自由度的卡方分布,判断显著性。p value是假设检验的统计量,根据卡方值和自由度可以计算得到。零假设指的是两者之间独立。
Comments