如何用STATA对连续性变量进行meta回归分析

在stata中有个metareg命令,好像可以对连续变量进行回归分析。

附件中是一篇pdf文档,主要介绍stata中关于meta分析的命令。跟大家分享一下。

里面在提到metareg命令时,列举了以下三个列子:

1:metareg logor covariate1 covariate2, wsse(selogor)

2: metareg logor dur,wsvar(vlor) bs(eb)noit

3: metareg meandiff qual avchol, wsse(sediff)bs(ml)tol(5)l(90)

协变量是什么

Covariates are random variables you treat as concomitants (see Concomitant Variable) or as other influential variables that also affect the response. Covariates in DOE are uncontrolled variables that influence the response but do not interact with any of the other factors being tested at the time. Therefore, if they are present during the experiment then they would show as measurements of error.

covariate

In statistics, a covariate is a variable that is possibly predictive of the outcome under study. A covariate may be of direct interest or be a confounding variable or effect modifier.

Reference

A Dictionary of Epidemiology: Fourth Edition. John M Last ed. Oxford UP 2001.

协变量 ( c o v a r i a t e ) 指与因变量有线性 相关并在 探讨自变量与因变量关系时通过统计 技术 加 以控制 的变量。常用的协变量包括 因变量的前测分数 、 人 口统计学 指标 以及与因变量 明显不同的个人特征等。数学上的?还是?

covariate(covariate是控制变量吗)相关推荐

  1. Batch Normalization批量归一化

    深度学习捷报连连.声名鹊起,随机梯度下降成了训练深度网络的主流方法.尽管随机梯度下降法对于训练深度网络简单高效,但是它有个毛病,就是需要我们人为的去选择参数,比如学习率.参数初始化.权重衰减系数.Dr ...

  2. 送书|高通量数据中批次效应的鉴定和处理(四)- 在差异基因鉴定过程中移除批次效应...

    生物信息学习的正确姿势 NGS系列文章包括NGS基础.转录组分析 (Nature重磅综述|关于RNA-seq你想知道的全在这).ChIP-seq分析 (ChIP-seq基本分析流程).单细胞测序分析  ...

  3. batchnorm原理及代码详解(笔记2)

    Batchnorm原理详解 前言:Batchnorm是深度网络中经常用到的加速神经网络训练,加速收敛速度及稳定性的算法,可以说是目前深度网络必不可少的一部分. 本文旨在用通俗易懂的语言,对深度学习的常 ...

  4. train和test的列分布差异(covariate shift)观察

    代码来自: https://www.kaggle.com/nroman/eda-for-cis-fraud-detection/comments 下面每一个代码块都表示一个jupyter notebo ...

  5. Batch normalization:accelerating deep network training by reducing internal covariate shift的笔记

    说实话,这篇paper看了很久,,到现在对里面的一些东西还不是很好的理解. 下面是我的理解,当同行看到的话,留言交流交流啊!!!!! 这篇文章的中心点:围绕着如何降低  internal covari ...

  6. 读文献——《Batch Normalization Accelerating Deep Network Training by Reducing Internal Covariate Shift》

    在自己阅读文章之前,通过网上大神的解读先了解了一下这篇文章的大意,英文不够好的惭愧... 大佬的文章在https://blog.csdn.net/happynear/article/details/4 ...

  7. 批归一化《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift》

    批归一化<Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift ...

  8. Batch Normalization + Internal Covariate Shift(论文理解)

    在看压缩神经网络相关的论文中,总是能看见 Batch Normalization,在网上找了很多博客看,但是一直处于一种似懂非懂的状态.于是去找了原论文<Batch Normalization: ...

  9. Batch Normalization:Accelerating Deep Network Training by Reducing Internal Covariate Shift 论文笔记

    0 摘要 当前神经网络层之前的神经网络层的参数变化,会引起神经网络每一层输入数据的分布产生变化,这使得训练一个深度神经网络变得复杂.通过设置较小的学习率以及更谨慎的初始化参数减慢了训练,并且由于非线性 ...

最新文章

  1. 不同平台上安装python一样吗_在多个平台如何安装Python
  2. python常见函数
  3. Redis3.0 集群
  4. springmvc导出excel并弹出下载框
  5. java生成pdf怎么合并行或者列_Java基础之PDF文件的合并
  6. C++矩阵库 Eigen 快速入门
  7. 解决Android 输入法InputMethodService 显示时让原Activity大小计算错误问题
  8. 代码chaid_R或Python中的CHAID决策树
  9. 02 java多线程基础
  10. PHP正则匹配6到16位字符组合(且只能为数字、字母、下划线)
  11. softmax ce loss_从Softmax到AMSoftmax(附可视化代码和实现代码)
  12. 10+必备的 WORDPRESS 常用插件
  13. html5 fa图标库,轻松学会在项目中使用fontawesome字体图标
  14. 创蓝云智短信接口发送短信函数
  15. “库存商品”和“原材料”科目的使用区别?
  16. 黑猴子的家:Minimal Install VS Server with GUI VS GNOME Desktop
  17. python输出用逗号隔开的数字_python,得出一些数字后,怎样不输出最后一个逗号...
  18. 敏捷软件开发--敏捷宣言
  19. 普特英语听力——前言
  20. Dagger2与AndroidInjector

热门文章

  1. LED全彩显示屏三种基色
  2. 数据平台发展史-从数据仓库数据湖到数据湖仓
  3. 数据湖-hudi概述
  4. 【Hadoop】MapReduce——分布式计算框架
  5. MySQL数据库安装以及SQL基本增删改查
  6. 【状语从句练习题】分词结构综合训练
  7. fetchall php,PHP PDOStatement::fetchAll讲解
  8. 阿里云国际站如何进行实名登记?
  9. 智能网联汽车 — 车联网与边缘计算
  10. 跨国合作的项目管理中值得注意的一些事情