第24行: |
第24行: |
| 当我们讨论因果关系时,不应该简单地认为它只是一个简单的原因导致结果的关系。实际上,这种关系可以从两个不同的角度来看:一个是充分性,另一个是必要性。充分性是指一个原因是否总是能导致一个特定的结果,而必要性是指为了得到这个结果,是否需要这个特定的原因。我们可以把这两个概念看作是理解因果关系的基本元素,称为因果基元。在更广泛的意义上,充分性和必要性分别反映了因果关系之间的确定性和简并性。 | | 当我们讨论因果关系时,不应该简单地认为它只是一个简单的原因导致结果的关系。实际上,这种关系可以从两个不同的角度来看:一个是充分性,另一个是必要性。充分性是指一个原因是否总是能导致一个特定的结果,而必要性是指为了得到这个结果,是否需要这个特定的原因。我们可以把这两个概念看作是理解因果关系的基本元素,称为因果基元。在更广泛的意义上,充分性和必要性分别反映了因果关系之间的确定性和简并性。 |
| | | |
− | # 充分性:这里指的是原因<math>c</math>对产生结果<math>e</math>的充分程度。如果每当原因<math>c</math>发生时,结果<math>e</math>总是随之发生,那么我们可以说<math>c</math>是产生<math>e</math>的充分条件。换句话说,<math>c</math>的存在足以确保<math>e</math>的发生。充分性用表示公式为<math>suff (e, c) = P (e | c)
| + | 1.充分性:这里指的是原因<math>c</math>对产生结果<math>e</math>的充分程度。如果每当原因<math>c</math>发生时,结果<math>e</math>总是随之发生,那么我们可以说<math>c</math>是产生<math>e</math>的充分条件。换句话说,<math>c</math>的存在足以确保<math>e</math>的发生。充分性用表示公式为 |
| + | |
| + | <math>suff (e, c) = P (e | c) |
| </math> | | </math> |
− | # 必要性:这里指指原因<math>c</math>对产生结果<math>e</math>的必要性程度。如果只有通过<math>c</math>才能产生<math>e</math>,那么<math>c</math>是产生<math>e</math>的必要条件。这意味着没有<math>c</math>,<math>e</math>就不会发生。必要性用表示公式为<math>nec(e, c) = 1 – P (e | C\c)
| + | |
| + | 2.必要性:这里指指原因<math>c</math>对产生结果<math>e</math>的必要性程度。如果只有通过<math>c</math>才能产生<math>e</math>,那么<math>c</math>是产生<math>e</math>的必要条件。这意味着没有<math>c</math>,<math>e</math>就不会发生。必要性用表示公式为 |
| + | |
| + | <math>nec(e, c) = 1 – P (e | C\c) |
| | | |
| </math> | | </math> |
− | # 确定性:如果原因只有一个结果,即<math>P=1</math>,则该熵项为零;如果原因具有完全随机的结果,则熵最大,即<math>log_2n</math>,其中<math>n</math>为所有可能结果的数量,用<math>H (e | c) </math>表示原因导致结果的概率分布的熵,用公式表示为<math>\begin{aligned}H(e\mid c)=\sum_{e\in E}P(e\mid c)\log_2\frac{1}{P(e\mid c)}\end{aligned} </math>。因此,我们将原因<math>c</math>的确定性定义为<math>log_2n - H (e | c) </math>。我们将它做归一化处理,可以创建一个确定性系数<math>det </math>,对于给定的原因,该系数的范围与充分性一样,在 0(完全随机)和 1(完全确定性)之间,公式为<math>det(c)=1-\frac{H(e\mid c)}{\log_2n} </math>。通过这个公式,我们可以定义一个单个因果转换的确定性系数<math>det(e,c)=1-\frac{\log_2\frac{1}{P(e|c)}}{\log_2n} </math>以及系统级确定性系数<math>det=\sum\limits_{c\in C}P(c) det(c)=\sum\limits_{e\in E, c\in C}P(e,c) det(e,c)=1-\frac{\sum\limits_{c\in C}P(c) H(e\mid c)}{\log_2n} </math>。
| + | |
− | # 简并性:简并性是必要性的一种推广,如果所有可能的结果都有相同的概率,即没有任何一个结果比其他结果更有可能,那么简并性为零。如果某些特定的结果由更多的原因引起,那么这些特定的结果就更有可能发生,从而导致简并性增加。简并性的量化可以用一组原因<math>C</math>导致<math>e</math>发生的条件概率的熵来衡量,公式为<math>\begin{aligned}H(e\mid C)=\sum_{e\in E}P(e\mid C)\log_2\frac{1}{P(e\mid C)}\end{aligned}</math>。通过这个公式,我们可以定义一个单个因果效应的简并性系数<math>deg(e)=1-\frac{\log_2\frac{1}{P(e|C)}}{\log_2n}</math>以及系统级简并性系数<math>deg=\sum_{e\in E}P(e\mid c) deg(e)=1-\frac{H(e\mid C)}{\log_{2}n}</math>。
| + | 3.确定性:如果原因只有一个结果,即<math>P=1</math>,则该熵项为零;如果原因具有完全随机的结果,则熵最大,即<math>log_2n</math>,其中<math>n</math>为所有可能结果的数量,用<math>H (e | c) </math>表示原因导致结果的概率分布的熵,用公式表示为 |
| + | |
| + | <math>\begin{aligned}H(e\mid c)=\sum_{e\in E}P(e\mid c)\log_2\frac{1}{P(e\mid c)}\end{aligned} </math> |
| + | |
| + | 因此,我们将原因<math>c</math>的确定性定义为<math>log_2n - H (e | c) </math>。我们将它做归一化处理,可以创建一个确定性系数<math>det </math>,对于给定的原因,该系数的范围与充分性一样,在 0(完全随机)和 1(完全确定性)之间,公式为 |
| + | |
| + | <math>det(c)=1-\frac{H(e\mid c)}{\log_2n} </math> |
| + | |
| + | 通过这个公式,我们可以定义一个单个因果转换的确定性系数 |
| + | |
| + | <math>det(e,c)=1-\frac{\log_2\frac{1}{P(e|c)}}{\log_2n} </math> |
| + | |
| + | 以及系统级确定性系数 |
| + | |
| + | <math>det=\sum\limits_{c\in C}P(c) det(c)=\sum\limits_{e\in E, c\in C}P(e,c) det(e,c)=1-\frac{\sum\limits_{c\in C}P(c) H(e\mid c)}{\log_2n} </math> |
| + | |
| + | 4.简并性:简并性是必要性的一种推广,如果所有可能的结果都有相同的概率,即没有任何一个结果比其他结果更有可能,那么简并性为零。如果某些特定的结果由更多的原因引起,那么这些特定的结果就更有可能发生,从而导致简并性增加。简并性的量化可以用一组原因<math>C</math>导致<math>e</math>发生的条件概率的熵来衡量,公式为 |
| + | |
| + | <math>\begin{aligned}H(e\mid C)=\sum_{e\in E}P(e\mid C)\log_2\frac{1}{P(e\mid C)}\end{aligned}</math> |
| + | |
| + | 通过这个公式,我们可以定义一个单个因果效应的简并性系数 |
| + | |
| + | <math>deg(e)=1-\frac{\log_2\frac{1}{P(e|C)}}{\log_2n}</math> |
| + | |
| + | 以及系统级简并性系数 |
| + | |
| + | <math>deg=\sum_{e\in E}P(e\mid c) deg(e)=1-\frac{H(e\mid C)}{\log_{2}n}</math> |