Preliminares

También llamada teoría de Dempster-Shafer, modela la incertidumbre del conocimiento eliminando algunos puntos débiles del enfoque probabilista bayesiano. Hace principal énfasis en la suma de la creencia en un hecho y en su contrario no tiene por que ser.

En probabilidad el aumento de la probabilidad en una hipótesis hace disminuir automáticamente su contraria.

Se considera como punto de partida una serie de entornos(q1,q2,\cdots). Un entorno(H) consta de un conjunto de hipótesis mutuamente exclusivas(una no puede influir una en otra) y exhaustivas(cubren todas las posibles situaciones de dicho entorno). Este conjunto de hipótesis se llama marco de discernimiento.

H={h1,h2,\cdots,hn}

Se define conjunto potencia del marco H al formado por todos los subconjuntos de hipótesis.

P(H)=[\{\varnothing\},\{h1\},\{h2\}\cdots,\{h1,h2\}\cdots\{h1,h2,\cdots,hn\}]

Para entender como trabajar con esta teoría necesitamos de algunos conceptos clave:

La función de asignación de probabilidad básica o masa de probabilidad que asigna valores entre 0 y 1 a cada elemento del conjunto potencia. 2^N\in[0,1] definida como:

m(\varnothing)=0 masa del conjunto vacío es cero

\sum_{S_i\subseteq H}m(S_i)=1

Donde:

0<m(S_i)<1

S_i cualquier subconjunto del marco de potencia.

m(S_i) es asignado por el experto según su juicio.

La creencia(BEL) en un conjunto de hipótesis S es la suma de todas las masas de probabilidad de los subconjuntos.

BEL(S)=\sum_{X\subset S}m(X)

El valor de m asignado a S_i indica la creencia en ese conjunto.

Bel(S_i) indica la creencia en ese conjunto y todos sus subconjuntos.

Bel(H)=1

El intervalo de creencia o certidumbre de un conjunto S es:

[BEL(S),1-BEL(\sim S)]

\sim S es el conjunto complementario de S respecto al conjunto potencia.

Plausibilidad es una medida del grado en que la evidencia no puede refutar S:

PL(S)=1-BEL(\sim S)

 

Incertidumbre es: PL(S)-BEL(S)

En el enfoque de Bayes las probabilidades son un número, mientras que en esta teoría las probabilidades se expresan por intervalos de creencia. Sin embargo cuando estos intervalos se estrechan las teorías tienden a coincidir.

Otra particularidad es que la probabilidad en Bayes de un subconjunto es menor o igual que el conjunto padre, sin embargo en la teoría DS no necesariamente es así.

Además en Bayes la suma de un conjunto mas su complementario es 1 mientras en DS no esta definido.

Es muy común que tengamos que añadir o actualizar las funciones de asignación básica de probabilidad sobre el marco de discernimiento, por ejemplo, en un diagnostico medico a medida que avanza un tratamiento o en un proceso en el que vamos recogiendo nueva evidencia. En este caso siendo m1 una función que estime previamente y m2 una función con evidencia añadida, el resultado de combinar ambas funciones es:

m3(C)=\frac{\sum_{X\cap Y=C}m1(X)\cdot m2(Y)}{1-\sum_{X\cap Y=\varnothing }m1(X)\cdot m2(Y)}

X,Y,C son subconjuntos del marco de discernimiento.

En el numerador encontramos el soporte, que entre mas evidencia mas apoya las posibles hipótesis.

En el denominador tenemos el conflicto entre las hipótesis. Si el conflicto da 1, la función quedaría como 1-1=0 lo que da una probabilidad contradictoria.

Practica

Imaginemos el siguiente caso: Cuatro personas, Bob, Jim, Silvia y Tania, se reúnen en una habitación, se va la luz y Tania esta muerta.

En un principio se puede sacar las siguientes conclusiones:

  • Bob es culpable
  • Jim es culpable
  • Silvia es culpable
  • Alguna combinación de los participantes

H={B,J,S}

Conjunto potencia: H=[\{\varnothing\},\{B\},\{J\},\{S\},\{B,J\},\{B,S\},\{J,S\},\{B,J,S\}]

Ahora, supongamos que después de las investigaciones se asignan las siguientes masas de probabilidad a las diferentes hipótesis:

m(\{\varnothing\})=0

m(\{B\})=0.1

m(\{J\})=0.2

m(\{S\})=0.1

m(\{B,J\})=0.1

m(\{B,S\})=0.1

m(\{J,S\})=0.3

m(\{B,J,S\})=0.1

Creencia:

BEL
\{\varnothing\} 0 0
\{B\} 0.1 0.1
\{J\} 0.2 0.2
\{S\} 0.1 0.1
\{B,J\} 0.1 0.4
\{B,S\} 0.1 0.3
\{J,S\} 0.3 0.6
\{B,J,S\} 0.1 1.0

La investigación sigue avanzando y se encuentran nuevas pistas, reasignándose una nueva masa de probabilidad ante las nuevas evidencias:

mr(\{\varnothing\})=0

mr(\{B\})=0.2

mr(\{J\})=0.1

mr(\{S\})=0.05

mr(\{B,J\})=0.05

mr(\{B,S\})=0.3

mr(\{J,S\})=0.1

mr(\{B,J,S\})=0.2

Vamos a sacar la nueva masa de probabilidad combinada.

BJS 0.1
JS 0.3 C
BJ 0.1 C
BS 0.1 C
S 0.1 C C C
J 0.2 C C C
B 0.1 C C C
B 0.2 J 0.1 S 0.05 BJ 0.05 BS 0.3 JS 0.1 BJS 0.2

Conflicto:

C=0.2\cdot 0.2+0.1\cdot 0.2+0.3\cdot 0.2+0.1\cdot 0.1+0.1\cdot 0.1+0.1\cdot 0.1+0.1\cdot 0.05+0.2\cdot 0.05+0.1\cdot 0.05+0.05\cdot 0.1+0.2\cdot 0.3+0.1\cdot 0.1

C=0.245

Normalización:

1-0.245=0.755

Vamos a sacar la estimación de la nueva masa combinada en base a Bob m3(B)

BJS 0.1 X
JS 0.3 C
BJ 0.1 X C X
BS 0.1 X C X
S 0.1 C C C
J 0.2 C C C
B 0.1 X C C X X C X
B 0.2 J 0.1 S 0.05 BJ 0.05 BS 0.3 JS 0.1 BJS 0.2

Marcamos con X los valores que usaremos para sacar el numerador:

0.1\cdot 0.2+0.1\cdot 0.2+0.1\cdot 0.2+0.1\cdot 0.2+0.1\cdot 0.05+0.1\cdot 0.05+0.1\cdot 0.3+0.1\cdot 0.3+0.1\cdot 0.2=0.17

m3(B)=\frac{0.17}{0.755}

m3(B)=0.225