MECÃNICA ESTRUTURAL DIMENSIONAL CATEGORIAL GRACELI.


SISTEMA DINÃMICO ESTRUTURAL TRANSFORMATIVO INTERATIVO DE FORÇAS FUNDAMENTAIS E ENERGIAS, E DO SISTEMA DIMENSIONAL CATEGORIAL DE GRACELI QUE DETERMINAM E REFERENCIAM O MUNDO DOS FENÔMENOS FÍSICOS, QUÍMICOS,  BIOLÓGICOS E PSÍQUICOS .


COMO FORMAS DE INTERAÇÕES ENTRE MOLÉCULAS, ESTRUTURA MOLECLAR, ONDAS, ENRGIAS, PARTÍCULAS, FÓTONS, MOMENTUM MAGNÉTICO, DISTRIBUIÇÃO ELETRÔNICA, NÍVEIS DE ENERGIAS,  NÚMEROS QUÂNTICOS E ESTADOS QUÂNTICOS. E OUTROS.





      EQUAÇÃO DE GRACELI.. PARA INTERAÇÕES DE ONDAS E INTERAÇÕES DAS FORÇAS FUNDAMENTAIS.


/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 

1 / G* =  = [          ] ω   / T]  c [    [x,t] ] [-1] = 


G* = = OPERADOR DE GRACELI = Em mecânica quântica, o OPERADOR DE GRACELI [ G* =]  é um operador cujo observável corresponde à  ENERGIA TOTAL DO SISTEMA , TODAS AS INTERAÇÕES INCLUINDO TODAS AS INTERAÇÕES DAS FORÇAS FUNDAMENTAIS [AS QUATRO FORÇAS] [ELETROMAGNÉTICA, FORTE, FRACA E GRAVITACIONAL], INTERAÇÕES SPINS-ÓRBITAS, ESTRUTURRA ELETRÔNICA DOS ELEMENTOS QUÍMICOS, TRANSFORMAÇÕES, SISTEMAS DE ONDAS QUÂNTICAS, MOMENTUM MAGNÉTICO de cada elemento químico e partícula, NÍVEIS DE ENERGIA , número quântico , e o  sistema GENERALIZADO GRACELI.


COMO TAMBÉM ESTÁ RELACIONADO A TODO SISTEMA CATEGORIAL GRACELI, TENSORIAL GRACELI DIMENSIONAL DE GRACELI..



A ideia de entropia, uma grandeza física que encontra sua definição dentro da área da termodinâmica,[Nota 4] surgiu no seguimento de uma função criada por Clausius[4] a partir de um processo cíclico reversível. Sendo Q o calor trocado entre o sistema e sua vizinhança, e T a temperatura absoluta do sistema, em todo processo reversível a integral de curva de  só depende dos estados inicial e final, sendo independente do caminho seguido. Portanto deve existir uma função de estado do sistema, S = f (P, V, T), chamada de entropia, cuja variação em um processo reversível entre os estados inicial e final é:[Nota 5]

, sendo Q reversível

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 

A entropia física, em sua forma clássica é dada por:

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 


desde que o calor seja trocado de forma reversível

ou, quando o processo é isotérmico:

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 

onde S é a entropia,  a quantidade de calor trocado e T a temperatura em Kelvin.

O significado desta equação pode ser descrito, em linguagem corrente, da seguinte forma:

Em processos reversíveis como o descrito, quando um sistema termodinâmico passa do estado 1 ao estado 2, a variação em sua entropia é igual à variação da quantidade de calor trocada (de forma reversível) dividido pela temperatura.



Interpretação estatística

Em 1877Ludwig Boltzmann visualizou um método probabilístico para medir a entropia de um determinado número de partículas de um gás ideal, na qual ele definiu entropia como proporcional ao logaritmo neperiano do número de microestados que um gás pode ocupar:

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 

Onde S é a entropia, k é a constante de Boltzmann e Ω é o número de microestados possíveis para o sistema.

O trabalho de Boltzmann consistiu em encontrar uma forma de obter a equação entrópica fundamental S a partir de um tratamento matemático-probabilístico[Nota 10] facilmente aplicável aos sistemas em questão. Ao fazê-lo, conectou o todo poderoso formalismo termodinâmico associado à equação fundamental a um método de tratamento probabilístico simples que exige apenas considerações físicas primárias sobre o sistema em análise, obtendo, a partir de considerações básicas, todo o comportamento termodinâmico do sistema. A equação de Boltzman mostra-se muito importante para o estudo termodinâmico de tais sistemas, e reconhecida como tal pelo próprio autor, encontra-se gravada em sua lápide.[Nota 11]




entropia de fusão é o aumento de entropia ao fundir uma substância. Isso é quase sempre positivo, uma vez que o grau de desordem aumenta a transição de um sistema organizado do  sólido cristalino para a estrutura disorganizada de um líquido; a única exceção conhecida é o hélio.[1] Ele é indicado como  e, normalmente, expressa em J mol-1 K-1 Um processo natural, como uma transição de fase vai ocorrer quando o associado mudança na energia livre de Gibbs é negativa.

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 


onde  é a entalpia ou calor de fusão.

Já que esta é uma equação termodinâmica, o símbolo T se refere ao valor absoluto temperatura termodinâmica, medido em kelvins (K).

Equilíbrio ocorre quando a temperatura é igual à ponto de fusão  de modo que

,

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 

e a entropia de fusão é o calor da fusão dividido pelo ponto de fusão.


/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 



entropia de transferência é uma medida estatística não paramétrica que mede a quantidade de informação direcional que é transferida entre dois processos aleatórios.[1][2][3][4] A entropia de transferência de um processo X para outro Y é definida como a redução da incerteza sobre os valores futuros de Y quando se conhecem os valores passados de X dados valores passados de Y.

Matematicamente, sejam  dois processos aleatórios definidos no tempo . Utilizando a entropia da informação de Shannon, H(X), a entropia de transferência pode ser calculada como:

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 

Alternativamente, a entropia de transferência pode ser descrita em termos da informação mútua condicional,[5][6] aonde o termo condicionado é o passado da variável Y, isto é, :

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 

A entropia de transferência torna-se o teste de causalidade de Granger quando o processo é autoregressivo e satisfaz as condições para causalidade de Granger.[7] Desta forma, torna-se mais adequado utilizar a entropia de transferência para o teste de causalidade de Granger quando o sinal é não-linear.[8][9] O ponto negativo desta abordagem é a necessidade de um maior número de amostras para uma estimativa confiável do valor obtido.[10]

Embora tenha sido definido para análise bivariada, existem extensões da entropia de transferência para análise multivariada, seja criando condicionais às demais variáveis[11] ou considerando a transferência de informação de um conjunto de fontes.[12] Porém, ambas as alternativas exigem mais dados.

A entropia de transferência tem sido aplicada na investigação de conectividade funcional no cérebro e em sistemas de neurônios[12][13][14], medir a influência de indivíduos/grupos em redes sociais[8] e como método de identificação de precursores de terremotos.[15]





Uma estatística quantica, no contexto da mecânica quântica e no da mecânica estatística, é a descrição de como a energia de cada um dos entes unitários constituintes de um ensemble está distribuida, dada uma energia total E constante, sob a restrição de que:

  1. a energia passa a ser quantizada;
  2. as partículas objeto de estudo passam a ser indistinguíveis.

Isso é feito expressando-se as probabilidades relativas de uma partícula com energia 

De modo clássico, a probabilidade é dada por:

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 

onde

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 

é a chamada função de partição

Nos casos quanticos, o que muda é a questão da quantização do espaço de fase, o que impõe um "volume" mínimo de célula possível nesse espaço.





Em mecânica estatística clássica, o teorema H, introduzido por Ludwig Boltzmann em 1872, descreve a tendência para diminuir a quantidade H em um gás quase-ideal de moléculas[1]. Como essa quantidade H deveria representar a entropia da termodinâmica, o teorema H foi uma demonstração inicial do poder da mecânica estatística, já que afirmava derivar a segunda lei da termodinâmica - uma declaração sobre processos fundamentalmente irreversíveis - da mecânica microscópica reversível. O teorema H é uma conseqüência natural da equação cinética derivada por Boltzmann que passou a ser conhecida como equação de Boltzmann.[2][3][4]

Definição e significado do H de Boltzmann

O valor H é determinado a partir da função f(EtdE, que é a função de distribuição de energia das moléculas no tempo t. O valor f(EtdE dE é o número de moléculas que possuem energia cinética entre E e E + dE. O próprio H é definido como

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 

Para um gás ideal isolado (com energia total fixa e número total fixo de partículas), a função H é mínima quando as partículas possuem uma distribuição de Maxwell-Boltzmann; se as moléculas do gás ideal forem distribuídas de alguma outra maneira (por exemplo, todas com a mesma energia cinética), então o valor de H será maior. O teorema H de Boltzmann demonstra que quando as colisões entre moléculas são permitidas, essas distribuições são instáveis e tendem a procurar irreversivelmente o valor mínimo de H (para a distribuição de Maxwell-Boltzmann).[5]




Em termodinâmica, uma Transformação isentrópica (combinação da palavra grega "iso" - igual - e "entropia") é aquela em que a entropia do sistema permanece constante.

Segunda Lei da Termodinâmica estabelece que:

/

G* =  = [          ] ω   / T]  c [    [x,t] ]  = 

onde  é a quantidade de energia que o sistema ganha por aquecimento,  a temperatura do sistema, e  a variação de entropia. O símbolo de igualdade implicaria um processo reversível. Em um processo isentrópico reversível não há transferência de energia calorífica, e por isso o processo é também adiabático. Em um processo adiabático irreversível, a entropia aumentará, de modo que é necessário eliminar calor do sistema (mediante refrigeração) para manter uma entropia constante. Por isso, um processo isentrópico irreversível não pode ser adiabático.

Comentários