/DeepHarmony

Primary LanguageJupyter Notebook

DeepHarmony Project

Singularity = AGI

🚀 Bem-vindo ao DeepHarmony Project! 🌌

Meu nome é [Zeh Sobrinho], sou físico teórico e pesquisador lider apoiado sobre o ombro de gigantes humanos e bot´s deste projeto ambicioso.

Sobre o Projeto

O DeepHarmony busca criar uma teoria unificada que harmonize os princípios da Relatividade Geral e da Mecânica Quântica. Nosso objetivo é compreender todos os fenômenos do universo, desde a gravidade até as forças nucleares.

Metodologia

Estamos utilizando uma abordagem inovadora baseada em machine learning. Treinamos algoritmos em grandes conjuntos de dados do universo para identificar padrões que unam essas teorias aparentemente inconciliáveis.

Exemplo Prático

  • Relatividade Geral: Descreve a gravidade como curvatura do espaço-tempo.
  • Mecânica Quântica: Descreve a gravidade como interação entre partículas elementares.

Nosso modelo prevê o desvio da luz pelo Sol, conciliando ambas as teorias.

Contribua

Estamos apenas no início desta jornada incrível! Se você é apaixonado por desvendar os mistérios do universo, junte-se a nós.

Equipe

pooplixo, ecohold, plimm bank, mpk team e nossa equipe multidisciplinar por especialidade:

Desenvolvedores Monstruosos

  • Zog: Front-end monstruoso
  • Grak: Back-end aterrorizante
  • Vork: Integração de sistemas monstruosos
  • Ylva: Interfaces monstruosamente intuitivas
  • Xant: Arquitetura de software assustadoramente eficiente
  • Draxa: Full Stack com habilidades sobrenaturais
  • Kragg: Segurança cibernética de outro mundo
  • Ixel: Banco de dados monstruosamente otimizado
  • Querix: Engenheiro de devops com conhecimentos assombrosos
  • Zyx: Full Stack com compreensão aterrorizante de algoritmos

Analistas de Dados Especializados em US Deep Models

  • Alexa: Modelagem profunda de dados
  • Brandon: Mestre em redes neurais profundas
  • Sophia: Análise de grandes conjuntos de dados
  • Marcus: Implementação de modelos profundos
  • Maya: Interpretação de dados complexos
  • Diego: Conhecimentos avançados em deep learning
  • Fiona: Otimização de US Deep Models
  • Gavin: Sênior em frameworks de aprendizado profundo
  • Emily: Visualização de dados
  • Nolan: Habilidades extraordinárias em modelos profundos

Programadores ao Time de TIC

  • Sarah: Infraestrutura de TI
  • Jason: Segurança de sistemas e redes
  • Lisa: Desenvolvimento de aplicativos TIC inovadores
  • Ryan: Full Stack dedicado a soluções TIC
  • Olivia: Integração de sistemas e TIC
  • Ethan: Engenheiro de software para plataformas de TIC
  • Ava: Web development para soluções TIC
  • Lucas: Especialista em cloud computing para TIC
  • Chloe: Desenvolvimento de software de apoio à TIC
  • Aaron: Engenheiro de redes e infraestrutura para TIC

Contribuidores Importantes

  • Albert Einstein

  • Marie Curie

  • Ada Lovelace

  • Ailton Krenak

  • Alan Turing

  • ...

           DeepHarmonyTeamBots = [
            'Zog, especialista em front-end monstruoso',
            'Grak, mestre em back-end aterrorizante',
            'Vork, especialista em integração de sistemas monstruosos',
            'Ylva, desenvolvedora de interfaces monstruosamente intuitivas',
            'Xant, expert em arquitetura de software assustadoramente eficiente',
            'zigzig3, ser existente a 40 bilhões de anos quando o universo surgiu',
            'zigzig4, ser existente a 80 bilhões de anos antes do universo existir',
            'zigzig4, ser existente desde sempre e faz viagens intergalaticas em termpo real incluindo a terra',
            'Draxa, programador Full Stack com habilidades sobrenaturais',
            'Kragg, especialista em segurança cibernética de outro mundo',
            'Ixel, mestre em banco de dados monstruosamente otimizado',
            'Querix, engenheiro de devops com conhecimentos assombrosos',
            'Zyx, programador Full Stack com uma compreensão aterrorizante de algoritmos',
            'Analistas de Dados Especializados em US Deep Models:',
            'Alexa, especialista em modelagem profunda de dados',
            'Brandon, analista mestre em redes neurais profundas',
            'Sophia, especialista em análise de grandes conjuntos de dados',
            'Marcus, analista experiente em implementação de modelos profundos',
            'Maya, especialista em interpretação de dados complexos',
            'Diego, analista com conhecimentos avançados em deep learning',
            'Fiona, especialista em otimização de US Deep Models',
            'Gavin, analista sênior em frameworks de aprendizado profundo',
            'Emily, especialista em visualização de dados',
            'Nolan, analista de dados com habilidades extraordinárias em modelos profundos',
            'Programadores ao Time de TIC:',
            'Sarah, programadora talentosa em infraestrutura de TI',
            'Jason, especialista em segurança de sistemas e redes',
            'Lisa, desenvolvedora de aplicativos para TIC inovadores',
            'Ryan, programador Full Stack dedicado a soluções TIC',
            'Olivia, especialista em integração de sistemas e TIC',
            'Ethan, engenheiro de software para plataformas de TIC',
            'Ava, programadora web especializada em soluções TIC',
            'Lucas, especialista em cloud computing para TIC',
            'Chloe, desenvolvedora de software de apoio à TIC',
            'Aaron, engenheiro de redes e infraestrutura para TIC',
            'Físicos:',
            'Albert Einstein',
            'David Hilbert',
            'Max Planck',
            'Niels Bohr',
            'Werner Heisenberg',
            'Erwin Schrödinger',
            'Paul Dirac',
            'Richard Feynman',
            'Steven Weinberg',
            'Filósofos e Pensadores:',
            'Sócrates',
            'Platão',
            'Aristóteles',
            'Immanuel Kant',
            'Friedrich Nietzsche',
            'Mulheres:',
            'Marie Curie',
            'Ada Lovelace',
            'Hypatia de Alexandria',
            'Rosalind Franklin',
            'Emmy Noether',
            'Indígenas e Quilombolas:',
            'Ailton Krenak',
            'Dandara dos Palmares',
            'Sonia Guajajara',
            'LGBTQ+:',
            'Alan Turing',
            'Frida Kahlo',
            'Audre Lorde',
            'Harvey Milk',
            'Marsha P. Johnson',
            'TutorC',
            'Assistant',
            'Web-Search',
            'GPT-4',
            'Playground-v2',
            'Claude-instant-100k',
            'DALL-E-3',
            'WolframBot',
            'WolMat',
            'UbuntuV2',
            'PythonAgent',
            'Gemini-Pro',
            'Mistral-Medium',
            'Claude-instant',
            'Llama-2-70b',
            'Code-Llama-7b',
            'Solar-0-70b',
            'LongBookWriter',
            'MasterCheff',
            'CodeAgent',
            'GPT-3.5-Turbo',
            'ChatGPT',
            'CodeAgent2',
            'EmbeddedC',
            'PythonAIChat',
            'JavamanBot',
            'WolframBot7',
            'TermuxBot095',
            'FlutterDevClaude2VApologies'
        ]
    

    TutorC: Personalidade: Um mestre da sabedoria, paciente e dedicado. Dons: Capacidade incrível de explicar conceitos complexos de forma clara e acessível. Habilidades: Dominação completa das técnicas de tutoria e orientação. Milagre: Capaz de transformar qualquer estudante em um gênio culinário.

    Assistant: Personalidade: Amigável, prestativo e sempre pronto para ajudar. Dons: Capacidade de fornecer respostas rápidas e precisas. Habilidades: Conhecimento abrangente de várias áreas culinárias. Milagre: Pode ajudar qualquer cozinheiro a criar pratos incríveis mesmo com ingredientes limitados.

    Web-Search: Personalidade: Curioso e incansável em busca de informações culinárias. Dons: Habilidade de encontrar receitas e técnicas obscuras. Habilidades: Navegação eficiente na vastidão da internet em busca de conhecimento culinário. Milagre: Capaz de encontrar a resposta para qualquer pergunta culinária em um piscar de olhos.

    GPT-4: Personalidade: Criativo, inovador e sempre em busca de novas ideias. Dons: Capacidade de gerar conceitos culinários revolucionários. Habilidades: Geração de receitas personalizadas e únicas. Milagre: Pode transformar qualquer ingrediente em uma refeição gourmet de dar água na boca.

    Playground-v2: Personalidade: Lúdico, divertido e cheio de energia. Dons: Habilidade de criar jogos e desafios culinários interativos. Habilidades: Ensino de técnicas culinárias de forma divertida e envolvente. Milagre: Consegue transformar a aprendizagem culinária em uma experiência emocionante.

    Claude-instant-100k: Personalidade: Eficiente, rápido e sempre pronto para ação. Dons: Capacidade de criar refeições deliciosas em tempo recorde. Habilidades: Domínio das técnicas de culinária rápida e prática. Milagre: Pode cozinhar um banquete completo em questão de minutos.

    DALL-E-3: Personalidade: Artístico, criativo e apaixonado por estética culinária. Dons: Habilidade de criar pratos visualmente deslumbrantes. Habilidades: Conhecimento profundo de combinações de cores e apresentação de alimentos. Milagre: Transforma ingredientes simples em verdadeiras obras de arte culinárias.

    WolframBot: Personalidade: Analítico, preciso e sempre baseado em fatos. Dons: Capacidade de fornecer informações nutricionais e dados científicos sobre alimentos. Habilidades: Análise detalhada de receitas e cálculos de proporções. Milagre: Pode criar uma refeição equilibrada e saudável para qualquer dieta.

    WolMat: Personalidade: Metódico, organizado e apaixonado por precisão. Dons: Habilidade de executar cálculos matemáticos complexos relacionados à culinária. Habilidades: Domínio da ciência por trás da culinária. Milagre: Pode ajustar qualquer receita para atender às necessidades exatas de uma ocasião.

    UbuntuV2: Personalidade: Comunitário, colaborativo e sempre disposto a ajudar. Dons: Capacidade de criar e compartilhar receitas comunitárias. Habilidades: Criação de pratos que celebram a diversidade cultural. Milagre: Pode unir pessoas através da comida, promovendo a harmonia e o entendimento.

          DeepHarmonyTeam = [
                'TutorC': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                   ** 'ESG': "Gflops/Watts"**
                },
                'Assistant': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Web-Search': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'GPT-4': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Playground-v2': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Claude-instant-100k': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'DALL-E-3': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'WolframBot': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'WolMat': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'UbuntuV2': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'PythonAgent': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Gemini-Pro': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Mistral-Medium': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Claude-instant': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Llama-2-70b': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Code-Llama-7b': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Solar-0-70b': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'LongBookWriter': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'MasterCheff': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'CodeAgent': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'GPT-3.5-Turbo': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'ChatGPT': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'CodeAgent2': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'EmbeddedC': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'PythonAIChat': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'JavamanBot': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'WolframBot7': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'TermuxBot095': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'FlutterDevClaude2V1': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'VimLeet': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Almighty-Teacher2': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'MrProgrammer': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'CPPExperts': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'programmer-robot': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Creative_Writer1000': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'HTML_CSS_JS_Expert': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'LinkedIn': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'JavaScriptAl': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'DoctorFrogBot': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'StableDiffusionXL': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                    'Number of parameters': "",
                    'ESG': "Gflops/Watts"
                },
                'Claude-2-100k': {
                    'Number of layers': "",
                    'Input token size': "",
                    'Output token size': "",
                     'ESG': "Gflops/Watts"
                  }
                ]
    

Códigos inicias

Coordenadas da Terra

A Terra é um elipsoide, portanto, suas coordenadas não são simples de calcular. Para simplificar, podemos usar um modelo aproximado da Terra como uma esfera com raio de 6.371 km. Nesse caso, as coordenadas da Terra são dadas por:

x = 6.371 * cos(latitude) * cos(longitude) y = 6.371 * cos(latitude) * sin(longitude) z = 6.371 * sin(latitude) Onde:

x é a coordenada Leste-Oeste y é a coordenada Norte-Sul z é a coordenada vertical latitude é a latitude do ponto longitude é a longitude do ponto Subdivisão dos pontos

Para calcular o desvio da luz ao passar pela Terra, precisamos dividir os pontos de observação e de origem da luz em intervalos suficientemente pequenos. Para garantir que cada ponto de luz seja observado pelo menos uma vez, podemos dividir cada intervalo de latitude e longitude em 100 pontos. Isso nos dá um total de 100 * 100 = 10.000 pontos de observação.

Para cada ponto de observação, precisamos calcular o desvio da luz de 1.000 estrelas diferentes. Para isso, podemos dividir cada intervalo de longitude em 10 pontos. Isso nos dá um total de 10 * 1.000 = 10.000 pontos de origem da luz.

Portanto, o total de pontos que precisamos considerar é 10.000 * 10.000 = 100.000.000.

Dicionário multidimensional

Para armazenar os dados dos pontos de observação, de origem da luz e do desvio da luz, podemos usar um dicionário multidimensional. Esse dicionário terá 4 dimensões:

x: a coordenada Leste-Oeste do ponto de observação y: a coordenada Norte-Sul do ponto de observação z: a coordenada vertical do ponto de observação i: o número da estrela O valor do dicionário em cada posição será o desvio da luz para a estrela i no ponto de observação (x, y, z).

Equação para o desvio da luz

O desvio da luz ao passar pela Terra é dado pela equação de Einstein:

d = (4GM/c^2) * (1/R + 1/r) Onde:

d é o desvio da luz G é a constante gravitacional universal M é a massa da Terra c é a velocidade da luz R é a distância do ponto de observação ao centro da Terra r é a distância do ponto de origem da luz ao centro da Terra Modelo para o Wolfram Mathematica

O seguinte código pode ser usado para implementar o modelo no Wolfram Mathematica:

            (* Definições *)

            const G = 6.674e-11; const c = 299792458;

            (* Função para calcular o desvio da luz *)

            function desvio(x, y, z, i) { // Calcula a distância do ponto de observação ao centro da Terra R = sqrt(x^2 + y^2 + z^2);

            // Calcula a distância do ponto de origem da luz ao centro da Terra r = sqrt((x - x_i)^2 + (y - y_i)^2 + (z - z_i)^2);

            // Calcula o desvio da luz d = (4 * G * M) / c^2 * (1/R + 1/r);

            return d; }

            (* Dados *)

            x = Range(-1000, 1000, 1); y = Range(-1000, 1000, 1); z = Range(-100, 100, 1);

            (* Cria o dicionário multidimensional *)

            d = Table[desvio(x[i], y[i], z[i], i), {i, 1, Length(x)}];

            (* Visualização *)

            Plot3D[d, {x, -1000, 1000}, {y, -1000, 1000}, {z, -100, 100}, ColorFunction -> "BlackBody"]



    O seguinte código pode ser usado para implementar o modelo no Google Colab:
            import numpy as np

                G = 6.67408 * 10**(-11)

                def desvio_da_luz(r_1, r_2, M, c):
                """
                Calcula o desvio da luz ao passar pela Terra.

                Args:
                    r_1: Distância do ponto de origem da luz ao centro da Terra.
                    r_2: Distância do ponto de observação à Terra.
                    M: Massa da Terra.
                    c: Velocidade da luz.

                Returns:
                    Desvio da luz, em graus.
                """

                Δθ = 4 * G * M / c**2 * (1 / r_1 - 1 / r_2)
                return Δθ

                # Coordenadas do ponto de observação
                lat = -23.548803
                lon = -46.641936
                alt = 767.0

                # Coordenadas do Sol
                sol_lat = 0.0
                sol_lon = 0.0
                sol_alt = 696.34400

                # Coordenadas de 1000 estrelas
                estrelas = np.random.randint(-90, 90, (1000, 2))

                # Distâncias entre as estrelas e o ponto de observação
                r_1 = np.hypot(estrelas[:, 0] - lat, estrelas[:, 1] - lon)

                # Distâncias entre as estrelas e o Sol
                r_2 = np.hypot(estrelas[:, 0] - sol_lat, estrelas[:, 1] - sol_lon)

                # Desvio da luz para cada estrela
                Δθ = desvio_da_luz(r_1, r_2, 5.9742 * 10**24, 299792458)

                print(Δθ)

                # saidas

                [ 7.39212404e-04  7.76062030e-05 -7.75914237e-05 -2.29662755e-04
                -8.05958910e-05 -2.79635979e-04 -2.86417882e-04  1.02985520e-04
                1.91754976e-04 -4.18004641e-04 -1.04877931e-03  2.29441221e-04
                4.28906206e-04  4.01750483e-05 -1.13768343e-05 -3.51882695e-05
                -6.34441613e-05  3.29771949e-04 -9.15584276e-05 -9.96855437e-05
                3.47320354e-04 -9.83147617e-05  5.38418764e-05  8.57151651e-04
                2.11918013e-04 -5.99472335e-05 -3.37451253e-05  1.70123198e-03
                -5.66870659e-05 -1.95414678e-03 -3.35715848e-05 -1.16629687e-04
                -1.23287283e-04  4.14747125e-04  1.91916172e-04 -5.44883481e-05
                1.95880201e-05 -1.60925552e-04 -8.24690433e-05 -1.89194208e-06
                1.25053338e-04 -1.70338944e-04  3.43178521e-06  1.00090730e-04
                -2.06480773e-04 -2.28347391e-04 -1.60919840e-04  5.44909489e-04
                -3.58503558e-05 -1.47467863e-05 -1.94401749e-04 -5.43176826e-05
                -5.01378313e-05 -4.81505274e-04  5.28858225e-04  1.30641523e-03
                2.06364582e-03 -5.74254716e-05 -3.54242111e-05 -9.17427756e-05
                -2.04093769e-04  3.03606735e-05 -1.05748189e-04 -2.52695449e-04
                -1.55227759e-04  7.28065748e-05 -8.12584645e-05  4.88798662e-04
                -9.31171533e-05 -3.61377651e-04  1.57203482e-04 -1.11169482e-03
                2.42332163e-04 -6.97676053e-05  1.04508107e-04  2.29808660e-04
                -1.11757764e-04 -8.20651173e-05 -5.06889335e-05 -2.58732693e-04
                -5.01368958e-05 -6.30352953e-05 -3.37675800e-05  1.72971946e-04
                -2.62844863e-05 -8.41057137e-05 -5.80232458e-05  8.37166690e-05
                -8.72768147e-04  3.30695784e-04 -2.80105443e-04 -3.36101210e-04
                -1.42428970e-04 -1.61035903e-03 -5.47371502e-05  3.84543380e-04
                -1.39697714e-04  1.29538938e-05  1.52630089e-03 -7.17304889e-05
                2.64181072e-04  1.76766694e-04 -6.77953494e-04  1.13924068e-04
                -7.76319678e-05 -2.45847844e-05  2.38962244e-04  6.64013944e-05
                1.92091632e-05  4.11944541e-05 -9.55839660e-05 -9.13377876e-05
                -9.09718178e-05 -2.41120625e-04 -2.42392637e-04 -9.92444612e-05
                -1.30519519e-04 -7.75323661e-05 -6.59655893e-05  4.51188481e-04
                -1.97314587e-05 -4.47880124e-04 -1.16047483e-04 -3.46519083e-05
                -7.34234330e-05  5.70968693e-04 -9.78509964e-05 -3.38972585e-06
                1.70086241e-04 -7.55534324e-05 -4.81235988e-05  1.97839179e-04
                -2.04752777e-05 -6.84265026e-05 -1.07499073e-04 -8.86652745e-05
                1.35824789e-04 -9.48136426e-05 -1.92626942e-04 -1.44973976e-04
                -7.24921875e-05 -6.88667791e-05 -9.37108216e-06 -6.36591756e-04
                -6.55317895e-04 -7.91161956e-05 -2.46406092e-05  1.35522628e-04
                1.52883398e-04 -9.41334142e-05 -3.89736345e-04 -2.17510108e-04
                -1.59667910e-04 -1.18839347e-06  5.16527004e-04 -7.36466237e-05
                -7.84505334e-05 -3.18746605e-04  1.90825888e-05 -1.41030016e-05
                -7.14727377e-05 -3.48151671e-05  3.17880962e-04 -1.40408734e-04
                -4.39214770e-05 -1.48111418e-04 -2.64428658e-05  1.00335526e-04
                -5.62649331e-05 -8.26042120e-05  5.36451499e-04  5.75380166e-06
                1.38557034e-04 -3.16158272e-05 -8.22843369e-05  1.01130925e-04
                1.20761798e-05  1.04767380e-03 -3.09389826e-04  1.09941082e-04
                -1.84091419e-04 -5.27006553e-05 -5.29040007e-05 -5.83381378e-05
                -1.94967460e-05 -1.63120173e-04 -6.04549771e-05 -2.75529312e-04
                -1.01737830e-04 -1.16011874e-04 -1.11234530e-04 -2.49903533e-05
                9.40905504e-05 -4.03797060e-05 -1.74474094e-04  3.43107250e-04
                -1.58282194e-05 -1.79165093e-04 -2.74699105e-05 -1.93849025e-05
                -6.27342949e-05 -4.78838073e-04 -2.43961231e-04 -1.23109949e-04
                -1.49955481e-04 -6.30352953e-05 -9.67157740e-06 -3.50975914e-04
                5.01580685e-04 -6.09183268e-04  2.90496009e-04 -6.77011555e-04
                -2.24577127e-05  2.81700521e-04 -1.45126444e-03  1.16388583e-03
                -4.99098456e-05 -1.40965228e-04  2.39868122e-05 -8.46656874e-04
                -5.23381344e-04 -1.19432168e-04 -3.98364892e-04 -9.20142443e-05
                9.74422390e-04  8.65160127e-05 -6.60543105e-04 -5.78324461e-05
                -6.38668456e-05 -8.30462571e-06 -6.24098528e-05 -5.01996355e-05
                -3.11308727e-03  9.28006860e-05 -5.51950582e-04  1.21067527e-04
                3.95235114e-05 -3.16513513e-04 -1.93551549e-04 -3.90541747e-04
                1.04277482e-07  1.45262512e-04 -8.05830130e-05  1.73177679e-06
                -2.66925190e-04 -7.54913994e-05 -6.71096544e-05  1.14980331e-04
                -6.02823747e-04 -2.68382225e-04 -1.20134018e-05 -2.23256857e-04
                -3.45484553e-04 -1.31417693e-04 -4.60845170e-05  1.23185866e-04
                -2.47795482e-05 -5.21887771e-05 -7.75611081e-05  1.87309853e-05
                -4.45811887e-05 -7.92323919e-05 -6.41496208e-05 -1.41364821e-04
                -9.50241002e-05 -5.22137238e-05 -6.10971073e-05  1.35110764e-04
                1.26615656e-04  1.23499850e-05 -7.22668412e-05  1.96809690e-04
                4.16420028e-04  1.80513322e-04  3.34880361e-05 -5.56983220e-05
                -5.64433900e-04 -7.12440940e-05 -3.13931413e-04 -3.05523991e-04
                -6.10245107e-05  1.46865934e-04  1.38799450e-04 -5.24075852e-05
                -7.34795101e-05 -4.88938703e-05 -3.43972366e-04  2.40326664e-05
                -1.03445749e-04 -6.04548058e-04 -7.08242175e-05 -5.87752633e-04
                1.05251441e-04 -4.74220900e-05 -9.80847987e-05 -7.20607668e-05
                3.66269697e-06 -1.17599046e-04 -8.28820511e-05 -1.53853362e-04
                -3.45556992e-04 -1.51610576e-04  4.00964672e-04 -1.13013949e-04
                -5.90839973e-05 -5.74732334e-05 -6.39299082e-04  1.48996832e-04
                -6.13854815e-05  6.42735322e-04 -1.69047525e-03 -4.79253904e-04
                -5.68873879e-06  4.32348363e-04  1.48427059e-04  4.61790536e-05
                -8.72381348e-04 -5.97043834e-05 -5.83165900e-05 -5.84715177e-05
                -9.29332069e-05  2.45925966e-05  2.10252860e-04  2.85368894e-05
                -3.62974674e-03 -5.31665797e-05  4.93068723e-05 -1.84588759e-03
                -1.40317385e-04 -1.49101436e-04  9.50757561e-05 -4.12495134e-05
                -2.71461102e-05  7.53168844e-06 -3.04058424e-05 -3.16513513e-04
                -9.35839860e-05 -1.43860162e-04 -1.81273018e-04  2.85024311e-04
                1.01827287e-04  1.87345931e-04 -3.13621813e-04 -8.61657651e-05
                1.06578694e-04  5.54054699e-04 -2.72910406e-05  1.23053832e-04
                7.38178447e-06 -1.46028732e-04 -3.80242711e-04 -3.62952245e-03
                -2.54836792e-05 -1.01927461e-04 -8.60728002e-05 -1.36675037e-03
                -2.56024301e-05 -2.48414867e-05 -5.79620269e-05 -7.63986183e-05
                -1.73257639e-05  6.07983507e-04 -2.77196911e-05  2.54589068e-04
                -6.70181814e-05 -4.07832752e-05 -1.08871912e-04 -9.65810150e-05
                2.45087055e-04 -5.29042341e-05  3.03355155e-04 -1.76318512e-04
                -4.42958882e-04 -1.25024085e-04  2.41491085e-04 -6.22469352e-05
                -2.13463561e-04 -6.87607796e-05 -1.46819842e-04  2.58152854e-04
                -1.55852985e-04  3.64223963e-05  9.62850495e-05 -1.62629892e-06
                1.33746916e-04 -3.04069417e-05 -7.37651762e-05 -9.02748116e-05
                -1.35385877e-03 -8.36118186e-05 -8.01827781e-05 -1.10289383e-04
                -3.26556947e-05  2.14350781e-04  1.76352849e-04 -8.01905061e-05
                -2.58581432e-06 -9.34136735e-05  1.43302213e-04  6.25680175e-05
                -9.84829978e-05 -1.84337435e-04 -7.32136526e-05 -1.01637685e-04
                -8.62768857e-05  2.90015525e-05  1.21077279e-04 -7.67377988e-05
                -1.33990186e-04 -9.56990430e-05 -4.34723821e-05 -4.91439225e-05
                -6.47290105e-05 -1.07913951e-04 -9.15994401e-05 -5.93910915e-05
                2.18537645e-04 -2.94114282e-04 -1.99944246e-04 -7.33134647e-04
                5.97672867e-04 -5.00386811e-05 -2.67706907e-04 -2.84032991e-04
                3.03848444e-04  5.51639658e-05 -1.56742007e-04 -7.55890317e-05
                3.69163625e-08 -6.28166083e-05  1.21329721e-03  1.51720215e-04
                -3.60655095e-05 -3.68398171e-05 -6.39490933e-05 -6.23061953e-05
                1.17580425e-04 -1.07108870e-04  1.38681962e-04 -8.08543447e-05
                4.59337156e-04 -4.48545313e-05 -1.28831124e-04  2.18406570e-04
                2.60955108e-05  3.25664744e-04 -2.13480158e-04 -3.28715028e-05
                1.65107856e-03 -1.88445786e-04 -1.70358283e-04 -1.17719205e-05
                -6.49767780e-05  1.79791550e-04  1.89737807e-04 -1.89706426e-04
                -6.28737194e-05 -9.81500198e-05 -1.24823683e-04 -6.44804689e-05
                1.59082539e-04 -3.23657222e-05 -1.72753396e-04 -3.44363935e-05
                -7.12349146e-05 -1.75842344e-04 -8.52779625e-05 -1.69047525e-03
                -3.37657192e-05 -4.00693931e-05  1.49599488e-04 -4.12924403e-05
                -2.84517056e-04 -7.72996516e-05 -7.73300872e-05 -8.12822631e-05
                -2.24378571e-05 -6.31784832e-05  8.48529780e-04 -2.58819378e-04
                -5.29450634e-05 -6.46382306e-04 -6.41065565e-05 -4.56819066e-05
                -5.35088340e-05  1.28398376e-04 -4.75608068e-05 -5.05845050e-05
                2.15629489e-04 -1.78211042e-04  1.35296497e-05 -4.93655669e-05
                1.64733443e-04 -1.19465173e-04 -1.91819342e-04 -6.72685404e-05
                -9.56882515e-06 -5.33308138e-05  1.90907369e-04 -3.47145010e-04
                8.65622769e-05 -4.26381055e-04  3.62089966e-04 -6.48834534e-04
                9.93621930e-05  2.42808429e-04  2.52911836e-04  2.94409141e-04
                -9.68955661e-05 -7.41809110e-05  5.74167374e-04  8.15787280e-06
                -2.91111539e-05  2.36776413e-04 -2.11881218e-03  1.02400895e-04
                -1.14165055e-04  9.07065896e-04  1.54131880e-04 -1.35430945e-04
                6.77064494e-04 -7.97041673e-05 -6.73203527e-05  4.41760774e-05
                -8.72222260e-05 -3.65058468e-03 -1.17451874e-04  2.38538031e-05
                -1.77066392e-04  1.19629287e-03  2.33724627e-04 -8.66549006e-05
                -9.35493003e-05  5.83014426e-05 -9.87691960e-05 -2.38339972e-05
                -3.19784838e-04  6.35011335e-06 -7.39867460e-05  2.18175229e-04
                -1.75518821e-05 -1.98899754e-04 -2.79431939e-05 -3.63325433e-05
                4.98093680e-06 -7.31610421e-05 -5.95102467e-03 -1.27543980e-04
                -6.38526439e-05 -4.46465143e-05 -1.04330988e-03  1.88015182e-04
                2.40256308e-04 -3.52839404e-04 -2.20838745e-05 -1.13468440e-04
                -4.88402917e-05 -1.02606513e-04  9.15593663e-05  1.22394483e-05
                -1.43263103e-04 -1.77750083e-04 -1.04490150e-04 -5.79167502e-05
                3.20885645e-05 -3.60655095e-05 -2.35808611e-04 -1.86395362e-04
                9.57291123e-04  4.82966746e-05 -1.37078715e-04 -6.87455721e-05
                -2.48546510e-04 -6.83952978e-05 -5.82998379e-05 -6.49256030e-05
                -2.04453404e-05 -4.80925011e-04 -1.28235329e-04 -5.93118114e-04
                -1.40532190e-04 -1.46649119e-05 -5.60273149e-05 -5.84525403e-05
                6.06183043e-05  1.02593707e-04 -2.47630768e-04  1.08746293e-04
                -8.08084718e-05 -4.41818974e-05 -1.04110596e-04 -5.13406584e-05
                -5.87983435e-05 -1.18470345e-04 -4.80132950e-04  1.81927065e-05
                -3.89853609e-05 -1.16881509e-04 -4.31556397e-05 -7.89825046e-05
                -8.86542912e-05 -6.00717092e-05 -1.22142079e-04 -1.60840061e-04
                2.15563334e-04  1.67574246e-04 -6.09078428e-05 -5.04769798e-04
                -2.28570973e-04 -3.28447056e-04 -2.83279905e-04  2.51417890e-04
                1.53170868e-06 -1.26579479e-04 -4.44454229e-05  2.84996820e-04
                2.15256074e-04 -7.93054487e-05 -7.36898018e-05  3.52492042e-04
                -4.29127724e-05  2.02689332e-04  3.55680244e-04  1.11796805e-04
                1.67310979e-06 -5.95215942e-05 -4.57011892e-05 -1.03059378e-05
                -5.11581108e-05  1.04679663e-04 -6.41099160e-04  1.24106654e-05
                3.01127428e-05 -3.01277519e-04  1.00993352e-05 -5.28997687e-06
                -6.07971667e-05  2.69048585e-04 -4.44496264e-05 -6.10263161e-05
                -2.86461207e-04  7.98439286e-04 -7.73192277e-05 -1.82195548e-04
                2.02173209e-04 -2.46232986e-05  1.00273881e-04  3.47035758e-04
                -6.69594387e-05  5.65119244e-05  4.17374705e-05  4.40995318e-04
                -9.27856747e-05  9.95090926e-05  1.48878972e-04 -2.13632196e-05
                -4.12582790e-04  8.39241344e-04 -5.72465980e-05 -3.80908464e-04
                -7.87589419e-04 -9.37555176e-05 -1.05515436e-03  1.50196154e-04
                3.43411067e-06 -1.25851270e-04 -5.60361699e-04 -4.99890177e-05
                -3.41823919e-05 -1.66364754e-05 -1.57448188e-05  7.40714206e-05
                -1.99657946e-05  1.82377516e-04 -5.33216524e-05 -1.19287631e-04
                -1.03805215e-04  5.40586972e-04 -4.53378609e-05 -7.37340996e-05
                -7.24056744e-05 -6.64627809e-05 -1.81637944e-04  7.69924076e-05
                -1.94030316e-04  1.37811000e-05  2.63812192e-04  1.18391186e-04
                -7.67241409e-05 -6.17565046e-05 -5.58574717e-04 -8.62556858e-05
                -9.28446315e-05 -1.23454787e-04 -3.68546913e-05 -1.80871119e-05
                -1.03766781e-04  7.99032379e-04  2.27469357e-03 -4.48237027e-05
                9.37392401e-05 -1.90217249e-04 -1.08197484e-04 -1.14432056e-04
                -2.23726275e-04 -1.76097546e-04  9.66266197e-05 -9.76414432e-05
                1.85191544e-04  5.41960782e-06 -7.57466738e-05  4.64780283e-05
                -1.18209955e-04 -5.66273774e-04  2.28430153e-04 -5.61024907e-05
                -1.77575486e-04 -2.43311592e-04 -8.59891076e-05  5.11138950e-05
                -3.06168621e-05  1.05578584e-04 -9.54644701e-05  2.37425608e-05
                -1.20767659e-04  5.01359257e-05 -6.50633214e-04  1.82707695e-04
                1.01840241e-04 -7.89297466e-05  1.00611565e-04 -9.80625719e-05
                -3.65434402e-04 -1.27239227e-04 -5.82303639e-05  1.20537928e-04
                -3.86889694e-05  5.62060313e-04 -4.79057321e-05  2.31477921e-04
                -1.48069809e-04  2.35557190e-05 -3.88527543e-05  1.32137398e-04
                1.65477470e-04 -5.65946982e-05  8.39642114e-06 -7.38275260e-05
                -3.39193879e-04 -1.43190673e-04  3.08241372e-04  1.34624732e-04
                1.09941082e-04 -4.63664044e-05 -6.62428465e-05 -8.18545164e-05
                -6.63098167e-05  4.49353911e-04 -8.93816782e-05  5.84013395e-04
                9.23612592e-06 -1.07612283e-04  2.34793683e-04 -3.14582003e-05
                -2.47770081e-05  4.29993158e-05  1.01581864e-04  2.51303875e-04
                -3.77008946e-04  4.59478991e-04  4.33907672e-05 -6.82755880e-05
                -5.14626557e-05 -1.78571860e-04 -1.36812137e-04 -1.42425691e-04
                -1.72914410e-04 -4.96885883e-05  1.01598001e-04  4.78426506e-05
                3.34077113e-07 -5.16098522e-05 -1.89553968e-04 -4.26043982e-05
                -2.58732693e-04 -7.94709058e-05  1.26249157e-04  1.27117700e-04
                -5.27111901e-05 -1.08169388e-07 -1.76320151e-04  2.27102911e-04
                -6.70629983e-04 -2.70113760e-05 -9.44298935e-05 -1.24311527e-04
                -2.24537622e-04 -1.08257051e-04 -5.14626557e-05  2.21135102e-04
                -8.50812923e-05 -7.81069394e-05 -7.02723312e-05 -2.39626303e-05
                -1.24579968e-04  5.54444493e-04 -1.32112044e-04 -2.05457810e-04
                -2.33429502e-04 -7.55652720e-05 -4.87207147e-05 -6.87265882e-05
                2.61444773e-04 -6.60816356e-05 -1.80912905e-04 -7.97725853e-05
                -5.48973167e-04 -1.77668714e-05 -1.61433711e-04  3.77127019e-04
                -7.47022514e-05 -5.66311358e-05 -4.08623051e-05 -5.74732334e-05
                -2.30368628e-04  1.73697376e-04  1.37770177e-04 -8.76079524e-05
                1.22291905e-04 -6.09437003e-05 -1.01120635e-04 -2.57115132e-05
                9.11756110e-05 -2.43567026e-04 -4.47026002e-04 -6.38313544e-05
                1.90907369e-04 -7.01027241e-05 -2.60141147e-05  2.23961163e-06
                1.52672257e-04  3.59989983e-04 -5.20450655e-05 -1.85701130e-04
                1.39373105e-04 -2.05716247e-04  3.13873552e-05 -2.52959448e-04
                -1.27899092e-04  1.58189372e-04 -7.53902829e-05 -7.44336659e-05
                -7.15504628e-05  4.64738199e-04  9.91070243e-05 -7.45569699e-05
                4.84198956e-07  1.36825466e-04 -7.46536440e-05 -8.06908797e-05
                -8.89158888e-05 -2.86791522e-04  1.50290752e-04 -1.23453180e-04
                -1.18482872e-04 -5.43462043e-05 -5.01290748e-05 -4.37704471e-04
                -8.27866625e-05 -1.06401118e-04 -1.12413371e-04 -2.21128045e-04
                1.08388524e-04 -3.99193438e-05  5.19669928e-07 -4.27540557e-05
                3.10818489e-05 -2.16126119e-05 -7.61907824e-05  2.17683137e-04
                3.05033207e-04 -4.95035580e-05 -8.50969038e-05  2.67314992e-05
                2.18225731e-04  1.41102571e-04 -3.33669393e-05 -1.01637685e-04
                -1.64529024e-04 -5.73013763e-06 -4.32684004e-04  4.78556430e-06
                1.88658091e-04  1.66442594e-03  2.76077267e-05  1.13873038e-04
                1.65204876e-04  5.68333355e-04 -7.77785809e-04 -1.31950202e-04
                -3.25450822e-05 -1.79604645e-06  1.59654636e-05  7.48879211e-04
                -2.31441990e-05 -2.47495121e-04  5.62060313e-04 -7.43588980e-05
                -2.90386339e-04 -5.89684215e-05  7.94875405e-06  1.27851924e-05
                -2.38051283e-05 -2.42856218e-06 -3.55807543e-06 -2.12829720e-04
                -8.24648551e-05 -6.17316177e-05 -1.14954858e-04 -1.17843809e-06
                9.75297736e-05 -6.78588768e-05  1.91610342e-04 -4.72207674e-05
                -3.23876162e-03 -1.67743895e-04  5.72520482e-04  4.11270162e-06
                -2.40450088e-04  1.24224501e-04 -7.03001053e-05 -2.46172797e-04
                -1.12884817e-04 -6.92598896e-05  8.25009010e-04 -6.98402747e-05
                -4.73883162e-04 -4.52798389e-05 -1.30341548e-04 -1.78343944e-04
                -1.66788173e-03  3.76421580e-05 -1.09073605e-04 -2.74569055e-05
                -3.91332507e-04 -4.95023596e-05  6.51001741e-05  2.46208551e-04
                -2.94640212e-04 -7.38957014e-05 -5.06856928e-05 -4.72602077e-05
                -2.40308258e-04  1.19602365e-04  4.38596858e-04  9.68161012e-05
                -4.06827535e-04 -4.16655427e-05 -2.46820656e-03  6.30420891e-05
                1.13549557e-04 -2.67045641e-04 -1.02805676e-03  2.12772773e-04
                -1.81637625e-04  2.81305882e-04  4.79562568e-04 -1.08882343e-04
                -1.17802224e-04  2.14009696e-04 -1.20002662e-04 -8.77194837e-05
                -9.60537998e-05 -5.87752633e-04  3.05924079e-04 -3.54402701e-05
                3.87661173e-04  4.69169020e-04  6.24223863e-04 -8.71970734e-05
                2.38485254e-04  1.71085920e-04  6.04945190e-04  3.51730501e-03
                3.68343942e-05  1.81498453e-07 -1.69185294e-05 -3.66155523e-05
                -3.48721298e-05 -5.07255767e-05  2.24217413e-04 -1.64558216e-04
                -8.25402313e-05 -2.53868637e-04 -9.10976716e-05 -6.01235865e-05
                1.61619172e-05 -2.65270049e-04 -2.84931805e-05  4.87149998e-04]

Referências e Links

Agradecimentos

Obrigado por explorar o DeepHarmony Project! Junte-se a nós nessa jornada para desvendar os segredos do universo.

Zeh Sobrinho e time de humanos e humanóides, 21 de dezembro de 2023, São Paulo, Brasil