AI in the US 'Competes with the People for Electricity', Nuclear Power Becomes Silicon Valley's 'Last Hope'

marsbitPublicado em 2026-01-15Última atualização em 2026-01-15

Resumo

The rapid expansion of AI in the U.S. is driving unprecedented electricity demand, leading major tech companies to invest heavily in nuclear power to secure stable energy supplies. Meta has signed long-term agreements to procure up to 6.6 GW of nuclear power by 2035, while Microsoft, Amazon, and Google are also backing nuclear projects, including restarting retired plants and developing small modular reactors (SMRs). This shift comes as data centers—powered largely by AI—double global electricity consumption by 2030, straining the U.S. grid. The PJM grid, serving 13 states, is near capacity, with power demand growing at 4.8% annually. However, new transmission lines take 5–10 years to build, far slower than data center construction. Power shortages have caused electricity prices to surge by over 200% in some regions, raising public concern and regulatory pressure. Companies like Microsoft now advocate for data centers to bear higher grid upgrade costs. While the U.S. pushes for a nuclear revival supported by federal policy, transmission infrastructure remains a bottleneck. Alternatives like space-based computing are emerging, but nuclear energy remains a critical near-term solution for AI’s growing power needs.

US AI companies have recently been busy investing in power plants again.

Recently, Meta signed a long-term power purchase agreement with US power company Vistra to directly procure electricity from several of its operational nuclear power plants; previously, Meta also partnered with advanced nuclear energy companies like Oklo and Terra Power to promote the commercial deployment of small modular reactors (SMRs) and fourth-generation nuclear power technologies.

According to information disclosed by Meta, if the above collaborations proceed as planned, by 2035, Meta could lock in a nuclear power supply scale of up to approximately 6.6GW (gigawatts, 1GW=1000MW/megawatts=1 billion watts).

Over the past year, major energy sector investments by North American AI companies are no longer news: Microsoft pushed for the restart of a decommissioned nuclear power plant, Amazon deployed data centers around nuclear power plants, and Google, xAI, among others, continued to increase long-term power purchase agreements. Against the backdrop of an intensifying computing power race, electricity is transforming from a cost item into a strategic resource that AI companies must secure in advance.

On the other hand, the energy demand stimulated by the AI industry is also putting sustained "pressure" on the US power grid.

According to foreign media reports, driven by surging AI demand, PJM, the largest grid operator in the US, is facing severe supply and demand challenges. This power network, covering 13 states and serving about 67 million people, is nearing its operational limits.

PJM expects electricity demand to grow at an average annual rate of 4.8% over the next decade, with almost all new load coming from data centers and AI applications, while power generation and transmission construction are clearly not keeping pace with this rhythm.

According to predictions by the International Energy Agency (IEA), AI has become the most important driver of electricity consumption growth in data centers, and it is expected that global data center electricity consumption will rise to about 945TWh by 2030, doubling from current levels.

The现实错位 (practical misalignment) lies in this: the construction cycle for an AI data center typically takes only 1-2 years, while a new high-voltage transmission line often takes 5-10 years to complete. In this context, AI companies have started to get directly involved, initiating a wave of alternative "big infrastructure" projects by investing in and building power plants.

01 AI Giants "Rush to Build" Nuclear Power Plants

Over the past decade, the main action of AI companies on the energy side has been "buying electricity" rather than "making electricity": procuring wind, solar, and some geothermal power through long-term power purchase agreements to lock in prices and meet decarbonization goals.

Taking Google as an example, this AI/internet giant has signed dozens of gigawatts of wind and solar long-term power purchase agreements globally and partnered with geothermal companies to obtain stable clean electricity for its data centers.

In recent years, with the surge in AI electricity consumption and the emergence of grid bottlenecks, some companies have begun to shift towards participating in power plant construction or deeply integrating with nuclear power plants, transforming their role from mere electricity consumers to participants in energy infrastructure.

One way to participate is to "resurrect" already decommissioned power plants. In September 2024, Microsoft signed a 20-year power purchase agreement with nuclear power operator Constellation Energy to support the restart and long-term power supply of an 835-megawatt decommissioned nuclear unit.

The US government also joined in: last November, the US Department of Energy announced the completion of a $1 billion loan disbursement for the project for partial financing support. The unit was renamed the Crane Clean Energy Center (formerly the Three Mile Island Unit 1 nuclear plant).

In fact, Crane is not the only power plant getting a "second career". In Pennsylvania, the Eddystone oil and gas power plant was originally scheduled to retire at the end of May 2024 but was subsequently ordered by the US Department of Energy to continue operating to avoid a power shortfall in PJM.

On the other hand, Amazon Web Services (AWS) took a different approach by directly purchasing a data center next to a nuclear power plant. In 2024, power company Talen sold its approximately 960-megawatt data center campus adjacent to the Susquehanna nuclear power plant in Pennsylvania to AWS. In June last year, Talen announced an expanded collaboration, planning to supply up to 1,920 megawatts of carbon-free electricity to AWS data centers.

Regarding new power plant construction, Amazon has recently participated in the development of an SMR small modular nuclear power plant project in Washington state through investment and cooperation, advanced by Energy Northwest and other institutions. The single-unit scale is about 80 megawatts, expandable to hundreds of megawatts overall, aiming to provide long-term, stable baseload power for data centers.

As for Google, in 2024 it partnered with US nuclear company Kairos Power to advance plans for new advanced nuclear reactor projects, aiming to put the first batch of units into operation around 2030 and form a stable carbon-free nuclear power supply of about 500 megawatts by 2035 to support long-term data center operation.

In the wave of building nuclear power plants, Meta is one of the most aggressive participants. So far, the scale of nuclear power resources it has planned to lock in has reached 6.6 gigawatts. For comparison, the total installed capacity of operational nuclear power plants in the US is about 97 gigawatts.

These projects are all incorporated into Meta's "Meta Compute" framework—a top-level strategy proposed by Meta earlier this year to uniformly plan the computing power and power infrastructure required for future AI.

Data from the International Energy Agency shows that by 2030, global data center electricity consumption will double, with AI being the main driving factor. The US accounts for the highest proportion of this increase, followed by China.

The US Energy Information Administration's (EIA) previous prediction of "maintaining stability" in power generation capacity by 2035 has clearly been broken by the AI wave.

Based on public information汇总 (summary), by 2035, the nuclear power capacity directly or indirectly locked in by AI giants like Microsoft, Google, Meta, and AWS is expected to exceed 10 gigawatts, and new infrastructure projects are still being disclosed continuously.

AI is becoming the new "golden sponsor" for the nuclear power revival, partly due to practical corporate choices—compared to wind and solar power, nuclear power has the advantages of 24/7 stable output, low carbon, and not relying on large-scale energy storage; it is also closely related to the policy environment.

In May 2025, US President Trump signed four "Nuclear Energy Revival" executive orders, proposing to quadruple US nuclear power production capacity within 25 years, positioning it as part of national security and energy strategy.

In the following year, stock prices of related nuclear power companies generally strengthened significantly: represented by nuclear power operators like Vistra, cumulative stock price increases were普遍 (generally) over 1.5 times; while companies focused on small modular reactors (SMRs) like Oklo and NuScale saw more激进 (aggressive) gains, rising several-fold cumulatively.

For a time, under the monetary offensive of the AI industry and promotion at the government level, nuclear power returned to the core of discussions on US energy and industrial policy.

02 Models Run Fast, But Power Plants Aren't Built Fast

Although the "Nuclear Revival" has boosted investment sentiment, nuclear power currently still accounts for only about 19% of the US power generation mix, and the cycle for building new or restarting plants is generally measured in decades. In other words, the risk of AI crowding out the power system has not decreased.

PJM has warned in multiple long-term forecasts that almost all new load growth in the next decade will come from data centers and AI applications. If power generation and transmission construction cannot accelerate, power supply reliability will face severe challenges.

As one of the largest regional transmission organizations in the US, PJM covers 13 states and Washington D.C., serving a population of about 67 million. Its stable operation is directly related to the core economic zones of the eastern and central US.

On one hand, numerous capital is投入 (invested in) power infrastructure; on the other hand, the electricity squeeze is迟迟得不到缓解 (slow to be alleviated).

Behind this contradiction lies a serious mismatch between the expansion speed of the US AI industry and the construction pace of the power system. The construction cycle for a hyperscale AI data center typically takes 1-2 years, while building new transmission lines and completing grid approval often takes 5-10 years.

Data center and AI power consumption loads continue to increase, while new power generation capacity cannot keep up. Under the持续 (sustained) crowding out of power resources, the direct consequence is soaring electricity prices.

In areas with highly concentrated data centers like Northern Virginia, residential electricity prices have risen significantly over the past few years, with increases exceeding 200% in some areas, far above inflation levels.

Some market reports show that in the PJM region, with the surge in data center load, power capacity market costs have risen sharply: the total capacity cost for the 2026-2027 auction was about $16.4 billion, with data center-related costs accounting for nearly half of the total cost in recent rounds. These increased costs will be borne by ordinary consumers through higher electricity bills.

As public discontent grows, the crowding out of power resources has quickly spilled over into a social issue. Regulatory agencies in states like New York have explicitly demanded that large data centers take on more responsibility for their surging electricity demand and the costs of new grid connections and expansion, including higher connection fees and long-term capacity obligations.

"We've never seen load growth like this before ChatGPT appeared," Tom Falconé, chairman of the Large Public Power Council, has publicly stated. "This is a problem involving the entire supply chain, involving utility companies, industry, labor, and engineers—these people don't just appear out of thin air."

Last November, PJM's market monitor filed a formal complaint with the Federal Energy Regulatory Commission (FERC), suggesting that PJM should not approve any new large data center interconnection projects until relevant procedures are improved, citing reliability and affordability issues.

To cope with the massive electricity consumption of AI data centers, some US states and power companies have begun to establish special "data center electricity price categories." For example, in November 2025, Kansas passed new electricity price rules, setting long-term contract, electricity price sharing, and infrastructure cost-sharing requirements for large power users (like data centers) of 75 megawatts and above, ensuring these large users bear more grid fees and upgrade costs.

Microsoft President Brad Smith recently stated in an interview that data center operators should "Pay our way," paying higher electricity prices or corresponding fees for their own electricity use, grid connection, and grid upgrades, avoiding passing the costs on to ordinary electricity users.

Overseas, in recent years, regions outside the US like Amsterdam, Dublin, and Singapore have suspended many new data center projects, mainly due to a lack of corresponding power infrastructure.

Under stricter power and land constraints, data center expansion has become a stress test for a country's underlying infrastructure and capital mobilization capabilities. Apart from the two major powers, China and the US, most economies can hardly match such engineering capabilities simultaneously.

Even from the current electricity squeeze in the US, it's not hard to see: merely throwing money at building new power plants may not necessarily resolve the energy crisis of the AI era.

03 Build the Grid, But Also "Watch the Weather"

Beyond the power plant side, the更大的结构性 (larger structural) problem of the electricity squeeze lies in the long-term lag in US transmission grid construction.

Some industry reports show that in 2024, the US added only 322 miles (345kV and above) of high-voltage transmission lines, one of the slowest construction years in the past 15 years; while in 2013, this number was close to 4000 miles.

Backward transmission capability means that even if more power plants come online, electricity may not be effectively delivered to power-intensive areas due to the inability to transmit it over long distances.

Between 2023 and 2024, PJM repeatedly warned externally that due to the inability to speed up transmission construction and power generation resources failing to keep up, the growth of new data center loads has forced grid operators to take unconventional measures to maintain system stability, including proposing options such as cutting power to some data centers or requiring them to use self-generation during extreme demand, otherwise reliability risks would further intensify.

In contrast, China, known as the "infrastructure maniac," has maintained relatively high growth rates and technological iteration in grid construction. In recent years, China has continued to加码 (ramp up) UHV (Ultra-High Voltage) construction, putting into operation multiple ±800kV, 1000kV UHV lines between 2020 and 2024, with an average annual新增里程 (new mileage) measured in thousands of kilometers.

In terms of installed capacity, China's total installed capacity is expected to exceed 3600+ gigawatts by 2025, growing from 2024, and plans to add 200-300 gigawatts of renewable generation capacity for the full year.

This gap in grid infrastructure capability is not something the US can弥补 (make up for) in the short term through policy or capital.

Against the backdrop of激增 (surging) AI load, the Federal Energy Regulatory Commission (FERC) formally issued Order No. 1920 in May 2024, completing its regional transmission planning reform initiated in 2021. The new rules require utilities to conduct 20-year forward-looking planning and include new types of loads like data centers in cost allocation discussions.

However, due to the lengthy process of rule implementation, project approval, and construction cycles, this policy is more like a medium-to-long-term "grid repair" tool, and the pressure from the practical electricity resource squeeze will persist. In this context, deploying computing power in space has become a new direction targeted by the industry.

In recent years, the global tech industry has been promoting the concept of "spatial computing power," which involves deploying computing nodes or data centers with AI training/inference capabilities in low Earth orbit (LEO) to solve the bottlenecks of ground-based data centers in energy, heat dissipation, and connectivity.

Represented by SpaceX, low-orbit satellites and inter-satellite laser communication are seen as the foundation for building a distributed "orbital computing power network." SpaceX is exploring in-orbit edge computing leveraging the Starlink constellation for remote sensing processing and real-time inference, reducing the pressure on ground回传 (downlink) and energy consumption.

On the other hand, startup Starcloud launched the Starcloud-1 satellite in November 2025, equipped with an NVIDIA H100 and completed in-orbit inference verification. This case indicates that deploying computing power in space is有望进入 (expected to enter) the actual deployment stage.

China is also accelerating its布局 (layout) in space computing power. The "Three-Body Computing Constellation" led by the Zhejiang Lab has successfully launched its first batch of 12 satellites, with an official plan for overall computing power reaching the 1000 POPS level, used for orbital edge computing, massive data preprocessing, and AI inference.

However, whether it's space computing power or a new generation energy system, both are still in the early验证 (validation) stages. This also explains why US AI giants have been争先 (scrambling) to invest in power infrastructure like nuclear power plants over the past year.

"We need clean, reliable power sources that can operate continuously, 24/7," International Energy Agency Executive Director Fatih Birol said in an interview, adding that "nuclear power is returning to center stage globally."

Given the reality that grid expansion and power generation construction are difficult to keep up with in the short term, the current crowding out of power resources in the US cannot be quickly alleviated. Continued large-scale capital investment in the power industry, especially the nuclear power sector, remains the only choice for now.

Wood Mackenzie pointed out in its latest forecast that as data center and artificial intelligence loads continue to push up electricity demand, US nuclear power generation is expected to grow by about 27% from current levels after 2035.

According to foreign media reports, the US government is supporting nuclear power equipment suppliers like Westinghouse through Department of Energy loans, export credits, and demonstration projects, promoting the construction of new reactors and unit life extension upgrades, and重塑 (reshaping) nuclear power industrial capabilities.

Under the dual background of industry and policy drive, for a considerable period in the future, US AI giants will be tightly捆绑 (bundled) with the nuclear energy industry.

Perguntas relacionadas

QWhy are major US AI companies like Meta and Microsoft investing heavily in nuclear power plants?

AAI companies are investing in nuclear power plants to secure stable, large-scale, and clean electricity supplies for their data centers, as AI-driven demand surges and grid constraints make power a strategic resource. Nuclear power offers 24/7 reliability without relying on large-scale energy storage, unlike renewables.

QWhat is the projected global data center electricity consumption by 2030 according to the IEA, and what is the main driver?

AThe International Energy Agency (IEA) predicts global data center electricity consumption will reach about 945 TWh by 2030, doubling current levels, with AI being the most important driving factor.

QHow does the construction timeline of AI data centers compare to that of new high-voltage transmission lines in the US?

AAI data centers can be built in 1-2 years, while new high-voltage transmission lines in the US often take 5-10 years to complete, creating a severe mismatch between demand growth and infrastructure deployment.

QWhat social issue has arisen due to the rapid increase in electricity demand from AI data centers in the US?

ARising electricity prices for residential consumers, with some areas like Northern Virginia seeing increases over 200%, as data centers consume vast amounts of power and contribute to higher capacity costs, leading to public dissatisfaction and calls for these companies to bear more grid upgrade expenses.

QWhat alternative solution is being explored to address the energy and connectivity bottlenecks of ground-based data centers?

AThe concept of 'space-based computing' or deploying AI compute nodes in low Earth orbit (LEO) is being explored, leveraging satellite constellations like SpaceX's Starlink for distributed orbital computing to reduce ground energy and transmission pressures.

Leituras Relacionadas

Google and Amazon Simultaneously Invest Heavily in a Competitor: The Most Absurd Business Logic of the AI Era Is Becoming Reality

In a span of four days, Amazon announced an additional $25 billion investment, and Google pledged up to $40 billion—both direct competitors pouring over $65 billion into the same AI startup, Anthropic. Rather than a typical venture capital move, this signals the latest escalation in the cloud wars. The core of the deal is not equity but compute pre-orders: Anthropic must spend the majority of these funds on AWS and Google Cloud services and chips, effectively locking in massive future compute consumption. This reflects a shift in cloud market dynamics—enterprises now choose cloud providers based on which hosts the best AI models, not just price or stability. With OpenAI deeply tied to Microsoft, Anthropic’s Claude has become the only viable strategic asset for Google and Amazon to remain competitive. Anthropic’s annualized revenue has surged to $30 billion, and it is expanding into verticals like biotech, positioning itself as a cross-industry AI infrastructure layer. However, this funding comes with constraints: Anthropic’s independence is challenged as it balances two rival investors, its safety-first narrative faces pressure from regulatory scrutiny, and its path to IPO introduces new financial pressures. Globally, this accelerates a "tri-polar" closed-loop structure in AI infrastructure, with Microsoft-OpenAI, Google-Anthropic, and Amazon-Anthropic forming exclusive model-cloud alliances. In contrast, China’s landscape differs—investments like Alibaba and Tencent backing open-source model firm DeepSeek reflect a more decoupled approach, though closed-source models from major cloud providers still dominate. The $65 billion bet is ultimately about securing a seat at the table in an AI-defined future—where missing the model layer means losing the cloud war.

marsbitHá 5h

Google and Amazon Simultaneously Invest Heavily in a Competitor: The Most Absurd Business Logic of the AI Era Is Becoming Reality

marsbitHá 5h

Computing Power Constrained, Why Did DeepSeek-V4 Open Source?

DeepSeek-V4 has been released as a preview open-source model, featuring 1 million tokens of context length as a baseline capability—previously a premium feature locked behind enterprise paywalls by major overseas AI firms. The official announcement, however, openly acknowledges computational constraints, particularly limited service throughput for the high-end DeepSeek-V4-Pro version due to restricted high-end computing power. Rather than competing on pure scale, DeepSeek adopts a pragmatic approach that balances algorithmic innovation with hardware realities in China’s AI ecosystem. The V4-Pro model uses a highly sparse architecture with 1.6T total parameters but only activates 49B during inference. It performs strongly in agentic coding, knowledge-intensive tasks, and STEM reasoning, competing closely with top-tier closed models like Gemini Pro 3.1 and Claude Opus 4.6 in certain scenarios. A key strategic product is the Flash edition, with 284B total parameters but only 13B activated—making it cost-effective and accessible for mid- and low-tier hardware, including domestic AI chips from Huawei (Ascend), Cambricon, and Hygon. This design supports broader adoption across developers and SMEs while stimulating China's domestic semiconductor ecosystem. Despite facing talent outflow and intense competition in user traffic—with rivals like Doubao and Qianwen leading in monthly active users—DeepSeek has maintained technical momentum. The release also comes amid reports of a new funding round targeting a valuation exceeding $10 billion, potentially setting a new record in China’s LLM sector. Ultimately, DeepSeek-V4 represents a shift toward open yet realistic infrastructure development in the constrained compute landscape of Chinese AI, emphasizing engineering efficiency and domestic hardware compatibility over pure model scale.

marsbitHá 6h

Computing Power Constrained, Why Did DeepSeek-V4 Open Source?

marsbitHá 6h

Trading

Spot
Futuros

Artigos em Destaque

O que é $S$

Compreender o SPERO: Uma Visão Abrangente Introdução ao SPERO À medida que o panorama da inovação continua a evoluir, o surgimento de tecnologias web3 e projetos de criptomoeda desempenha um papel fundamental na formação do futuro digital. Um projeto que tem atraído atenção neste campo dinâmico é o SPERO, denotado como SPERO,$$s$. Este artigo tem como objetivo reunir e apresentar informações detalhadas sobre o SPERO, para ajudar entusiastas e investidores a compreender as suas bases, objetivos e inovações nos domínios web3 e cripto. O que é o SPERO,$$s$? O SPERO,$$s$ é um projeto único dentro do espaço cripto que procura aproveitar os princípios da descentralização e da tecnologia blockchain para criar um ecossistema que promove o envolvimento, a utilidade e a inclusão financeira. O projeto é concebido para facilitar interações peer-to-peer de novas maneiras, proporcionando aos utilizadores soluções e serviços financeiros inovadores. No seu núcleo, o SPERO,$$s$ visa capacitar indivíduos ao fornecer ferramentas e plataformas que melhoram a experiência do utilizador no espaço das criptomoedas. Isso inclui a possibilidade de métodos de transação mais flexíveis, a promoção de iniciativas impulsionadas pela comunidade e a criação de caminhos para oportunidades financeiras através de aplicações descentralizadas (dApps). A visão subjacente do SPERO,$$s$ gira em torno da inclusão, visando fechar lacunas dentro das finanças tradicionais enquanto aproveita os benefícios da tecnologia blockchain. Quem é o Criador do SPERO,$$s$? A identidade do criador do SPERO,$$s$ permanece algo obscura, uma vez que existem recursos publicamente disponíveis limitados que fornecem informações detalhadas sobre o(s) seu(s) fundador(es). Esta falta de transparência pode resultar do compromisso do projeto com a descentralização—uma ética que muitos projetos web3 partilham, priorizando contribuições coletivas em vez de reconhecimento individual. Ao centrar as discussões em torno da comunidade e dos seus objetivos coletivos, o SPERO,$$s$ incorpora a essência do empoderamento sem destacar indivíduos específicos. Assim, compreender a ética e a missão do SPERO é mais importante do que identificar um criador singular. Quem são os Investidores do SPERO,$$s$? O SPERO,$$s$ é apoiado por uma diversidade de investidores que vão desde capitalistas de risco a investidores-anjo dedicados a promover a inovação no setor cripto. O foco desses investidores geralmente alinha-se com a missão do SPERO—priorizando projetos que prometem avanço tecnológico social, inclusão financeira e governança descentralizada. Essas fundações de investidores estão tipicamente interessadas em projetos que não apenas oferecem produtos inovadores, mas que também contribuem positivamente para a comunidade blockchain e os seus ecossistemas. O apoio desses investidores reforça o SPERO,$$s$ como um concorrente notável no domínio em rápida evolução dos projetos cripto. Como Funciona o SPERO,$$s$? O SPERO,$$s$ emprega uma estrutura multifacetada que o distingue de projetos de criptomoeda convencionais. Aqui estão algumas das características-chave que sublinham a sua singularidade e inovação: Governança Descentralizada: O SPERO,$$s$ integra modelos de governança descentralizada, capacitando os utilizadores a participar ativamente nos processos de tomada de decisão sobre o futuro do projeto. Esta abordagem promove um sentido de propriedade e responsabilidade entre os membros da comunidade. Utilidade do Token: O SPERO,$$s$ utiliza o seu próprio token de criptomoeda, concebido para servir várias funções dentro do ecossistema. Esses tokens permitem transações, recompensas e a facilitação de serviços oferecidos na plataforma, melhorando o envolvimento e a utilidade gerais. Arquitetura em Camadas: A arquitetura técnica do SPERO,$$s$ suporta modularidade e escalabilidade, permitindo a integração contínua de funcionalidades e aplicações adicionais à medida que o projeto evolui. Esta adaptabilidade é fundamental para manter a relevância no panorama cripto em constante mudança. Envolvimento da Comunidade: O projeto enfatiza iniciativas impulsionadas pela comunidade, empregando mecanismos que incentivam a colaboração e o feedback. Ao nutrir uma comunidade forte, o SPERO,$$s$ pode melhor atender às necessidades dos utilizadores e adaptar-se às tendências do mercado. Foco na Inclusão: Ao oferecer taxas de transação baixas e interfaces amigáveis, o SPERO,$$s$ visa atrair uma base de utilizadores diversificada, incluindo indivíduos que anteriormente podem não ter participado no espaço cripto. Este compromisso com a inclusão alinha-se com a sua missão abrangente de empoderamento através da acessibilidade. Cronologia do SPERO,$$s$ Compreender a história de um projeto fornece insights cruciais sobre a sua trajetória de desenvolvimento e marcos. Abaixo está uma cronologia sugerida que mapeia eventos significativos na evolução do SPERO,$$s$: Fase de Conceituação e Ideação: As ideias iniciais que formam a base do SPERO,$$s$ foram concebidas, alinhando-se de perto com os princípios de descentralização e foco na comunidade dentro da indústria blockchain. Lançamento do Whitepaper do Projeto: Após a fase conceitual, um whitepaper abrangente detalhando a visão, os objetivos e a infraestrutura tecnológica do SPERO,$$s$ foi lançado para atrair o interesse e o feedback da comunidade. Construção da Comunidade e Primeiros Envolvimentos: Esforços ativos de divulgação foram feitos para construir uma comunidade de primeiros adotantes e investidores potenciais, facilitando discussões em torno dos objetivos do projeto e angariando apoio. Evento de Geração de Tokens: O SPERO,$$s$ realizou um evento de geração de tokens (TGE) para distribuir os seus tokens nativos a apoiantes iniciais e estabelecer liquidez inicial dentro do ecossistema. Lançamento da dApp Inicial: A primeira aplicação descentralizada (dApp) associada ao SPERO,$$s$ foi lançada, permitindo que os utilizadores interagissem com as funcionalidades principais da plataforma. Desenvolvimento Contínuo e Parcerias: Atualizações e melhorias contínuas nas ofertas do projeto, incluindo parcerias estratégicas com outros players no espaço blockchain, moldaram o SPERO,$$s$ em um jogador competitivo e em evolução no mercado cripto. Conclusão O SPERO,$$s$ é um testemunho do potencial do web3 e das criptomoedas para revolucionar os sistemas financeiros e capacitar indivíduos. Com um compromisso com a governança descentralizada, o envolvimento da comunidade e funcionalidades inovadoras, abre caminho para um panorama financeiro mais inclusivo. Como em qualquer investimento no espaço cripto em rápida evolução, potenciais investidores e utilizadores são incentivados a pesquisar minuciosamente e a envolver-se de forma ponderada com os desenvolvimentos em curso dentro do SPERO,$$s$. O projeto demonstra o espírito inovador da indústria cripto, convidando a uma exploração mais aprofundada das suas inúmeras possibilidades. Embora a jornada do SPERO,$$s$ ainda esteja a desenrolar-se, os seus princípios fundamentais podem, de facto, influenciar o futuro de como interagimos com a tecnologia, as finanças e uns com os outros em ecossistemas digitais interconectados.

69 Visualizações TotaisPublicado em {updateTime}Atualizado em 2024.12.17

O que é $S$

O que é AGENT S

Agent S: O Futuro da Interação Autónoma no Web3 Introdução No panorama em constante evolução do Web3 e das criptomoedas, as inovações estão constantemente a redefinir a forma como os indivíduos interagem com plataformas digitais. Um projeto pioneiro, o Agent S, promete revolucionar a interação humano-computador através do seu framework aberto e agente. Ao abrir caminho para interações autónomas, o Agent S visa simplificar tarefas complexas, oferecendo aplicações transformadoras em inteligência artificial (IA). Esta exploração detalhada irá aprofundar-se nas complexidades do projeto, nas suas características únicas e nas implicações para o domínio das criptomoedas. O que é o Agent S? O Agent S é um framework aberto e agente, especificamente concebido para abordar três desafios fundamentais na automação de tarefas computacionais: Aquisição de Conhecimento Específico de Domínio: O framework aprende inteligentemente a partir de várias fontes de conhecimento externas e experiências internas. Esta abordagem dupla capacita-o a construir um rico repositório de conhecimento específico de domínio, melhorando o seu desempenho na execução de tarefas. Planeamento ao Longo de Longos Horizontes de Tarefas: O Agent S emprega planeamento hierárquico aumentado por experiência, uma abordagem estratégica que facilita a decomposição e execução eficientes de tarefas intrincadas. Esta característica melhora significativamente a sua capacidade de gerir múltiplas subtarefas de forma eficiente e eficaz. Gestão de Interfaces Dinâmicas e Não Uniformes: O projeto introduz a Interface Agente-Computador (ACI), uma solução inovadora que melhora a interação entre agentes e utilizadores. Utilizando Modelos de Linguagem Multimodais de Grande Escala (MLLMs), o Agent S pode navegar e manipular diversas interfaces gráficas de utilizador de forma fluida. Através destas características pioneiras, o Agent S fornece um framework robusto que aborda as complexidades envolvidas na automação da interação humana com máquinas, preparando o terreno para uma infinidade de aplicações em IA e além. Quem é o Criador do Agent S? Embora o conceito de Agent S seja fundamentalmente inovador, informações específicas sobre o seu criador permanecem elusivas. O criador é atualmente desconhecido, o que destaca ou o estágio nascente do projeto ou a escolha estratégica de manter os membros fundadores em anonimato. Independentemente da anonimidade, o foco permanece nas capacidades e no potencial do framework. Quem são os Investidores do Agent S? Como o Agent S é relativamente novo no ecossistema criptográfico, informações detalhadas sobre os seus investidores e financiadores não estão explicitamente documentadas. A falta de informações disponíveis publicamente sobre as fundações de investimento ou organizações que apoiam o projeto levanta questões sobre a sua estrutura de financiamento e roteiro de desenvolvimento. Compreender o apoio é crucial para avaliar a sustentabilidade do projeto e o seu impacto potencial no mercado. Como Funciona o Agent S? No núcleo do Agent S reside uma tecnologia de ponta que lhe permite funcionar eficazmente em diversos ambientes. O seu modelo operacional é construído em torno de várias características-chave: Interação Humano-Computador Semelhante: O framework oferece planeamento avançado em IA, esforçando-se para tornar as interações com computadores mais intuitivas. Ao imitar o comportamento humano na execução de tarefas, promete elevar as experiências dos utilizadores. Memória Narrativa: Utilizada para aproveitar experiências de alto nível, o Agent S utiliza memória narrativa para acompanhar os históricos de tarefas, melhorando assim os seus processos de tomada de decisão. Memória Episódica: Esta característica fornece aos utilizadores orientações passo a passo, permitindo que o framework ofereça suporte contextual à medida que as tarefas se desenrolam. Suporte para OpenACI: Com a capacidade de funcionar localmente, o Agent S permite que os utilizadores mantenham o controlo sobre as suas interações e fluxos de trabalho, alinhando-se com a ética descentralizada do Web3. Fácil Integração com APIs Externas: A sua versatilidade e compatibilidade com várias plataformas de IA garantem que o Agent S possa integrar-se perfeitamente em ecossistemas tecnológicos existentes, tornando-o uma escolha apelativa para desenvolvedores e organizações. Estas funcionalidades contribuem coletivamente para a posição única do Agent S no espaço cripto, à medida que automatiza tarefas complexas e em múltiplos passos com mínima intervenção humana. À medida que o projeto evolui, as suas potenciais aplicações no Web3 podem redefinir a forma como as interações digitais se desenrolam. Cronologia do Agent S O desenvolvimento e os marcos do Agent S podem ser encapsulados numa cronologia que destaca os seus eventos significativos: 27 de Setembro de 2024: O conceito de Agent S foi lançado num artigo de pesquisa abrangente intitulado “Um Framework Agente Aberto que Usa Computadores como um Humano”, mostrando a base para o projeto. 10 de Outubro de 2024: O artigo de pesquisa foi disponibilizado publicamente no arXiv, oferecendo uma exploração aprofundada do framework e da sua avaliação de desempenho com base no benchmark OSWorld. 12 de Outubro de 2024: Uma apresentação em vídeo foi lançada, proporcionando uma visão visual das capacidades e características do Agent S, envolvendo ainda mais potenciais utilizadores e investidores. Estes marcos na cronologia não apenas ilustram o progresso do Agent S, mas também indicam o seu compromisso com a transparência e o envolvimento da comunidade. Pontos-Chave Sobre o Agent S À medida que o framework Agent S continua a evoluir, várias características-chave destacam-se, sublinhando a sua natureza inovadora e potencial: Framework Inovador: Concebido para proporcionar um uso intuitivo de computadores semelhante à interação humana, o Agent S traz uma abordagem nova à automação de tarefas. Interação Autónoma: A capacidade de interagir autonomamente com computadores através de GUI significa um avanço em direção a soluções computacionais mais inteligentes e eficientes. Automação de Tarefas Complexas: Com a sua metodologia robusta, pode automatizar tarefas complexas e em múltiplos passos, tornando os processos mais rápidos e menos propensos a erros. Melhoria Contínua: Os mecanismos de aprendizagem permitem que o Agent S melhore a partir de experiências passadas, aprimorando continuamente o seu desempenho e eficácia. Versatilidade: A sua adaptabilidade em diferentes ambientes operacionais, como OSWorld e WindowsAgentArena, garante que pode servir uma ampla gama de aplicações. À medida que o Agent S se posiciona no panorama do Web3 e das criptomoedas, o seu potencial para melhorar as capacidades de interação e automatizar processos significa um avanço significativo nas tecnologias de IA. Através do seu framework inovador, o Agent S exemplifica o futuro das interações digitais, prometendo uma experiência mais fluida e eficiente para os utilizadores em diversas indústrias. Conclusão O Agent S representa um ousado avanço na união da IA e do Web3, com a capacidade de redefinir a forma como interagimos com a tecnologia. Embora ainda esteja nas suas fases iniciais, as possibilidades para a sua aplicação são vastas e cativantes. Através do seu framework abrangente que aborda desafios críticos, o Agent S visa trazer interações autónomas para o primeiro plano da experiência digital. À medida que avançamos mais profundamente nos domínios das criptomoedas e da descentralização, projetos como o Agent S desempenharão, sem dúvida, um papel crucial na formação do futuro da tecnologia e da colaboração humano-computador.

533 Visualizações TotaisPublicado em {updateTime}Atualizado em 2025.01.14

O que é AGENT S

Como comprar S

Bem-vindo à HTX.com!Tornámos a compra de Sonic (S) simples e conveniente.Segue o nosso guia passo a passo para iniciar a tua jornada no mundo das criptos.Passo 1: cria a tua conta HTXUtiliza o teu e-mail ou número de telefone para te inscreveres numa conta gratuita na HTX.Desfruta de um processo de inscrição sem complicações e desbloqueia todas as funcionalidades.Obter a minha contaPasso 2: vai para Comprar Cripto e escolhe o teu método de pagamentoCartão de crédito/débito: usa o teu visa ou mastercard para comprar Sonic (S) instantaneamente.Saldo: usa os fundos da tua conta HTX para transacionar sem problemas.Terceiros: adicionamos métodos de pagamento populares, como Google Pay e Apple Pay, para aumentar a conveniência.P2P: transaciona diretamente com outros utilizadores na HTX.Mercado de balcão (OTC): oferecemos serviços personalizados e taxas de câmbio competitivas para os traders.Passo 3: armazena teu Sonic (S)Depois de comprar o teu Sonic (S), armazena-o na tua conta HTX.Alternativamente, podes enviá-lo para outro lugar através de transferência blockchain ou usá-lo para transacionar outras criptomoedas.Passo 4: transaciona Sonic (S)Transaciona facilmente Sonic (S) no mercado à vista da HTX.Acede simplesmente à tua conta, seleciona o teu par de trading, executa as tuas transações e monitoriza em tempo real.Oferecemos uma experiência de fácil utilização tanto para principiantes como para traders experientes.

1.0k Visualizações TotaisPublicado em {updateTime}Atualizado em 2025.03.21

Como comprar S

Discussões

Bem-vindo à Comunidade HTX. Aqui, pode manter-se informado sobre os mais recentes desenvolvimentos da plataforma e obter acesso a análises profissionais de mercado. As opiniões dos utilizadores sobre o preço de S (S) são apresentadas abaixo.

活动图片