이 익스플로잇으로 인해 Moonwell 프로토콜이 1달러에 악용되었습니다. cbETH 가격이 1달러로 잘못 책정된 후 7, 800만 달러. 약 2, 200달러 대신 12달러로 AI 공동 작성 스마트 계약에 대한 논쟁이 심화되고 있습니다.
소셜 피드의 코인텔레그래프.
Base 및 Optimism에 배포된 탈중앙화 금융(De Fi) 대출 프로토콜인 Moonwell은 약 1달러에 이용되었습니다. Coinbase Wrapped Staked ETH(cbETH)에 대한 가격 책정 오라클 이후 7, 800만 달러가 약 1달러의 가치를 반환했습니다. $2, 200 대신 12로 가격을 잘못 책정하여 공격자가 이익을 얻을 수 있었습니다.
Moonwell은 사후 조사에서 일요일에 실행된 거버넌스 제안이 cbETH/ETH 환율만 사용하여 cbETH 오라클을 잘못 구성하여 시스템이 cbETH를 약 1달러로 보고하게 만들었다고 말했습니다. 12. 프로토콜은 청산 봇과 기회주의적인 차용인이 잘못된 가격을 악용하여 약 1달러를 남겼다고 밝혔습니다. 부실채권 7800만.
영향을 받은 계약에 대한 풀 요청에는 Anthropic의 Claude Opus 4. 6이 공동으로 작성한 여러 커밋이 표시되어 보안 감사관 Pashov가 해당 사건을 인공 지능 작성 또는 AI 지원 Solidity 역효과의 예로 공개적으로 표시하도록 했습니다.
이 사건에 대해 코인텔레그래프와의 인터뷰에서 그는 클로드가 공동 작성한 풀 요청에 여러 커밋이 있었기 때문에 사건을 클로드와 연결했다고 말했습니다. 이는 “개발자가 클로드를 사용하여 코드를 작성했고 이로 인해 취약점이 발생했습니다. ”라는 의미입니다.
그러나 Pashov는 이 결함을 AI에 의한 고유한 결함으로 취급하는 것에 대해 경고했습니다. 그는 오라클 문제를 "선임 Solidity 개발자라도 할 수 있는" 일종의 실수라고 설명하면서 실제 문제는 충분히 엄격한 점검과 엔드투엔드 검증이 부족합니다는 점이라고 주장했습니다.
처음에 그는 테스트나 감사가 전혀 없었다고 믿었지만 나중에 팀이 별도의 풀 요청으로 단위 및 통합 테스트가 있다고 말하고 Halborn에 감사를 의뢰했다는 사실을 인정했습니다.
그의 견해로는 잘못된 가격 책정은 "블록체인과 통합하는 적절한 통합 테스트를 통해 발견될 수 있었지만" 다른 보안 회사를 직접 비판하는 것을 거부했습니다.
관련 항목: 한국이 AI를 사용하여 암호화폐 시장 조작을 탐지하는 방법.
공격자가 6억 달러 이상을 훔친 2022년 3월의 Ronin 브리지 익스플로잇이나 기타 9자리 브리지 및 대출 프로토콜 해킹과 같은 DeFi의 가장 큰 사건에 비해 익스플로잇의 금액은 적습니다.
문웰을 주목할 만한 점은 AI 공동 저작, 주요 자산에 대한 기본적으로 보이는 가격 구성 실패, 이를 포착하지 못한 기존 감사 및 테스트가 혼합되어 있다는 점입니다.
Pashov는 자신의 회사가 프로세스를 근본적으로 바꾸지는 않을 것이지만 코드가 "바이브 코딩"된 것처럼 보인다면 그의 팀은 "조금 더 눈을 크게 뜨고" 낮은 문제의 밀도가 더 높아질 것이라고 예상했습니다. 비록 이 특정 오라클 버그가 발견하기가 "그렇게 쉽지는 않았지만" 말입니다.
분산형 ID 인프라 제공업체인 cheqd의 공동 창업자이자 CEO인 프레이저 에드워즈(Fraser Edwards)는 코인텔레그래프와의 인터뷰에서 바이브 코딩에 대한 논쟁은 AI가 사용되는 방식에 대한 "매우 다른 두 가지 해석"을 가리고 있다고 말했습니다.
관련 항목: AI 암호화폐 거래가 인간의 역할을 어떻게 만들고 깨뜨리는가.
한쪽에는 AI가 독립적으로 검토할 수 없는 코드를 생성하도록 유도하는 비기술적 창립자들이 있다고 그는 말했습니다. 다른 한편으로는 AI를 사용하여 성숙한 엔지니어링 프로세스 내에서 리팩터링, 패턴 탐색 및 테스트를 가속화하는 숙련된 개발자입니다.
AI 지원 개발은 "특히 MVP(최소 실행 가능한 제품) 단계에서 가치가 있을 수 있습니다. "라고 그는 지적했지만, 특히 De Fi와 같은 자본 집약적 시스템에서는 "생산 준비 인프라에 대한 지름길로 취급되어서는 안 됩니다"라고 말했습니다.
Edwards는 모든 AI 생성 스마트 계약 코드가 신뢰할 수 없는 입력으로 처리되어야 하며, 특히 액세스 제어, 오라클 및 가격 책정 로직, 업그레이드 메커니즘과 같은 고위험 영역과 관련하여 엄격한 버전 제어, 명확한 코드 소유권, 다인 동료 검토 및 고급 테스트가 적용되어야 한다고 주장했습니다.
“궁극적으로 책임 있는 AI 통합은 거버넌스와 규율로 귀결됩니다”라고 그는 명확한 검토 게이트, 코드 생성과 검증의 분리, 적대적인 환경에 배포된 모든 계약에 잠재 위험이 포함될 수 있다는 가정을 통해 말했습니다.
매거진: 한국은 암호화폐로 부자가 되고… 북한은 무기를 얻습니다.
원문 제목: Moonwell hit by $1.78M exploit as AI vibe coding debate reaches DeFi
The exploit saw the Moonwell protocol exploited for $1.
78 million after cbETH was mispriced at $1.
12 instead of about $2,200, intensifying debate around AI-co-authored smart contracts.
Cointelegraph in your social feed.
Moonwell, a decentralized finance (DeFi) lending protocol deployed on Base and Optimism, was exploited for about $1.
78 million after a pricing oracle for Coinbase Wrapped Staked ETH (cbETH) returned a value of about $1.
12 instead of $2,200, creating a mispricing that attackers were able to use for profit.
Moonwellsaidin an incident post-mortem that a governance proposal executed on Sunday misconfigured the cbETH oracle by using the cbETH/ETH exchange rate alone, causing the system to report cbETH at about $1.
12.
The protocol said liquidation bots and opportunistic borrowers exploited the mispricing, leaving roughly $1.
78 million in bad debt.
Thepull requestsfor the affected contracts show multiple commits co-authored by Anthropic’s Claude Opus 4.
6, prompting security auditor Pashov to publiclyflagthe incident as an example of artificial intelligence-written or AI-assisted Solidity backfiring.
Speaking to Cointelegraph about the incident, he said that he had linked the case to Claude because there were multiple commits in the pull requests that were co-authored by Claude, meaning that “the developer was using Claude to write the code, and this has led to the vulnerability.
”.
Pashov cautioned, however, against treating the flaw as uniquely AI-driven.
He described the oracle issue as the kind of mistake “even a senior Solidity developer could have made,” arguing that the real problem was a lack of sufficiently rigorous checks and end-to-end validation.
Initially, he said that he believed there had been no testing or audit at all, but later acknowledged that the team said it had unit and integration tests in a separate pull request and had commissioned an audit from Halborn.
In his view, the mispricing “could have been caught with an integration test, a proper one, integrating with the blockchain,” but he declined to criticise other security firms directly.
Related:How South Korea is using AI to detect crypto market manipulation.
The dollar amount of the exploit is small compared to some ofDeFi’s largest incidents, such as theRonin bridge exploit in March 2022, where attackers stole more than $600 million, or othernine-figure bridge and lending protocol hacks.
What makes Moonwell notable is the mix of AI co-authorship, a basic-seeming price configuration failure on a major asset, and existing audits and tests that failed to catch it.
Pashov said his own company would not fundamentally change its process, but if code appeared “vibe coded,” his team would “have a bit more wide open eyes” and expect a higher density of low-hanging issues, even though this particular oracle bug “was not that easy” to spot.
Fraser Edwards, co-founder and CEO of cheqd, a decentralized identity infrastructure provider, told Cointelegraph that the debate around vibe coding masks “two very different interpretations” of how AI is used.
Related:How AI crypto trading will make and break human roles.
On one side, he said, are non-technical founders prompting AI to generate code they cannot independently review; on the other, experienced developers using AI to accelerate refactors, pattern exploration and testing inside a mature engineering process.
AI-assisted development “can be valuable, particularly at the MVP [minimal viable product] stage,” he noted, but “should not be treated as a shortcut to production-ready infrastructure,” especially in capital-intensive systems like DeFi.
Edwards argued that all AI-generated smart contract code should be treated as untrusted input, subject to strict version control, clear code ownership, multi-person peer review and advanced testing, especially around high-risk areas such as access controls, oracle and pricing logic, and upgrade mechanisms.
“Ultimately, responsible AI integration comes down to governance and discipline,” he said, with clear review gates, separation between code generation and validation, and an assumption that any contract deployed in an adversarial environment may contain latent risk.
Magazine:South Korea gets rich from crypto… North Korea gets weapons.