Ainda que sendo um fato o aumento da desordenação da matéria pela entropia não somos capazes de mensurar uma 'taxa de caos' capaz de aumentar a precisão das probabilidades e previsões. Ainda que o uso maior de dados numa equação seja capaz de mediar possíveis variáveis paira a incerteza sobre as possibilidades percentuais. Porém, mesmo das especulações, hipóteses até teorias paira as possibilidades explicativas e de previsões sendo tais não menos probabilidades de certeza em si. Mesmo a ideia da seleção natural da teoria da evolução prediz possíveis combinações ante uma série de fatores externos e ambientais. Uma taxa de frequência do caos poderia ser mensurado por meio da probabilidade encima dos fatores delimitantes, pré-determinantes ou determinantes? Mediante a intensidade uma aproximação razoável pode ser concebida como abaixo:
- 0% impossível;
- 1% improvável;
- de 20% a 50% acaso/coincidência;
- 50% a 60% provável;
- de 6% a 80% padrão emergente de possibilidade;
- 80% à 90% Padrão;
- 100% inevitável;
- Acima de 100%, singularidade;
Similarmente podemos descrever o negacionismo como em 0% de possibilidade de veracidade, o pseudocientifico até 40% (ou seja, acaso ou coincidência) enquanto acima especulação 50%, uma teoria acima de 60% e uma lei física 100%. Obviamente as próprias pontuações são não menos parciais por aproximação provável sendo por si só pendente de verificações diversas, falseabilidade e revisão de pares. Porém, medianre uma marge de plausibilidade de eventos ou veracidade (previsão ou exemplificação) está atrelada a uma margem de imprecisão. Mesmo a relarividade demonstra isso mediante fatores em escala astronônica, quanto o caos e outros efeitos pertinentes a física quântica, todavia propor a possibilidade de um código do caos descreveria algo que sem a chave seria inquebrável por se propor infinitas combinações ao contrário da criptografia atual.
A partir disto vamos especular se a diferença entre espaço e tempo afeta a variação de um mesmo tipo de evento ao repetir um experimento quatros vezes (ou mais) como abaixo:
Uma pessoa jogar 100 vezes 'cara' ou 'coroa' teria o mesmo percentual de 'cara' que um grupo de 100 pessoas jogarem uma vez 'cara' ou 'coroa' ao mesmo tempo?
Ainda que a amostragem possa se modificar mediante a extensão e intensidade denota um padrão de ondularidade no caos como representação de que a intensidade maior está num curto tempo, e o contrário visto na quantidade. Basicamente intui a possibilidade do caos se definido pelo qualitativo e quantitativo sinalizando padrões de conexão. Variação por tamanho da amostragem demonstraria a diferença da curva de longitude e intesidade a que o aleatório age como uma onda, havendo assim uma margem maior de precisão em determinada frequência de amostragem de modo que o quantitativo (extenção e alcance) afeta o qualitativo (precisão e intensidade). Ao ser pensado como onda sob tais aspectos por pesquisas práticas poderia se determinar um faixa de normalidade e precisão plausível tanto como o oposto.
Logo, propomos que a teoria da probabilidade (por si só uma teoria) não é um mero estudo da quantificação da aleatoriedade e incerteza, mas do qualitativo, podendo ter implicações tanto na probabilidade quanto estatística.
Num âmbito informacional os dados produtivos inferem uma verdade em movimento de variação que poderia ser interpretado pela alternância multidimensional de escolhas, não alterações.
Nenhum comentário:
Postar um comentário