다중 에이전트 시대: Anthropic MCP vs Google A2A
다중 에이전트 패러다임
인공지능 활용이 고도화됨에 따라, 여러 AI 에이전트가 서로 협업하여 작업을 수행하는 “다중 에이전트” 패러다임이 빠르게 부상하고 있습니다. 이제 AI는 단순히 개별 모델의 성능 경쟁을 넘어, 여러 모델이 어떻게 소통하고 협력할 것인가로 관심이 옮겨가고 있습니다. 이 배경에서 2024년 말과 2025년 초에 걸쳐 두 개의 중요한 개방형 프로토콜이 등장했습니다. Anthropic의 MCP(Model Context Protocol)와 Google의 A2A(Agent-to-Agent) 프로토콜이 그것입니다. 두 프로토콜은 모두 AI 시스템의 상호운용성(interoperability)을 목표로 하지만, 접근 방식과 지향점에서 뚜렷한 차이가 있습니다. 기술 업계의 리더들은 이들 프로토콜이 AI 에이전트 생태계의 미래 방향에 어떤 영향을 미칠지 주목하고 있습니다.
이 글에서는 Google A2A와 Anthropic MCP를 비교하여, 각각의 등장 배경과 철학, 기술적 구조와 개발 적용성의 차이점을 살펴보겠습니다. 특히 다중 에이전트 협업 관점에서 A2A가 갖는 설계상의 강점과, Google이 이를 자사 클라우드 및 워크스페이스에 연계하여 보여주는 전략적 움직임을 중립적인 시각에서 분석합니다. 또한 Google의 최신 TPUv7 인프라를 통한 저비용 고성능 전략이 A2A 확산에 어떤 역할을 하는지, 엔터프라이즈 환경에서의 보안 및 인증 측면 우수성, 그리고 오픈소스 생태계와 커뮤니티 확장성 측면에서 두 프로토콜을 비교합니다. 이를 통해 Google의 전략적 방향성을 조망하면서도, 단순 기능 비교를 넘어 현재 진행 중인 트렌드와 기술 진화에 대한 생각을 공유하고자 합니다.
등장 배경과 철학적 차이
Anthropic MCP와 Google A2A는 서로 다른 문제의식을 배경으로 탄생했습니다. Anthropic이 2024년 11월 발표한 MCP는 거대 언어모델(LLM)이 외부 데이터와 도구에 접근하여 맥락을 확보하는 표준을 마련하려는 시도였습니다. 대형 AI 모델들이 겪는 한계 중 하나는 필요한 정보를 외부 시스템으로부터 효과적으로 받아오지 못하는 “고립” 문제인데, MCP는 바로 이 부분에 주목했습니다. Anthropic은 MCP을 통해 AI 어시스턴트와 데이터 소스 간에 안전한 쌍방향 연결을 표준화함으로써, 파일 시스템, 데이터베이스, 비즈니스 애플리케이션 등 다양한 소스에 실시간 접근할 수 있도록 했습니다. 쉽게 말해 “AI를 위한 USB-C 포트”처럼 한 번의 통합으로 여러 종류의 데이터를 끌어와 쓸 수 있게 하겠다는 철학입니다. 이는 모델 중심으로 필요한 정보를 주입하여 더 정확하고 맥락 풍부한 답변을 얻고자 하는 접근으로, “필요한 도구와 데이터는 정확히 지정해서 연결한다”는 실용주의에 가깝습니다.
반면, Google의 A2A 프로토콜은 2025년 4월 Google Cloud Next 행사에서 공개되었으며, AI 활용에 대한 보다 거시적인 비전에서 출발했습니다. Google은 기업 환경에서 다양한 AI 에이전트가 각기 다른 업무를 수행하며 상호 연계되는 멀티에이전트 생태계를 염두에 두고 있었습니다. A2A는 “에이전트들끼리 직접 대화하고 협력할 수 있는 공용어”를 정의함으로써, 서로 다른 벤더나 프레임워크로 만들어진 에이전트들이 원활히 통신하도록 설계되었습니다. 이는 AI 에이전트 간 ‘수평적’ 통합을 지향하는 철학으로, 에이전트 자체가 하나의 행동 주체로서 다른 에이전트와 동등한 수준에서 상호작용하는 미래를 상상합니다. Google은 내부적으로 다중 에이전트 시스템을 대규모로 운용해본 경험을 바탕으로, 대규모 협업 AI의 잠재력을 확신하고 있었습니다. “어떤 일을 달성하기를 원한다고 알려주면, 구체적 방법은 에이전트들이 스스로 결정한다”는 A2A의 철학은, 창의적 자율성과 상호학습을 강조하는 방향입니다.
이러한 철학적 차이는 프로토콜의 쓰임새에도 고스란히 반영됩니다. MCP가 한 에이전트(또는 모델)가 필요한 도구와 데이터를 정해진 방식으로 호출하여 자신의 기능을 확장하는 “수직적 통합”에 가깝다면, A2A는 여러 에이전트들이 각자 전문성을 살려 역할을 나누고 대화하면서 협력적으로 목표를 달성하는 “수평적 협업”을 추구합니다. 예를 들어, MCP에서는 하나의 AI 비서가 데이터베이스 조회 기능을 사용해 답을 향상시킨다면, A2A에서는 정보 검색 전문 에이전트, 분석 전문 에이전트, 실행 전문 에이전트가 팀을 이루어 문제를 해결하는 식입니다. 두 접근 모두 AI 시스템의 한계를 돌파하려는 시도지만, MCP는 도구 활용의 표준화, A2A는 에이전트 협력의 표준화라는 차별된 철학을 갖고 탄생했습니다.
흥미롭게도 Google은 “A2A는 MCP를 보완한다”고 공식 블로그에서 언급하며 두 프로토콜의 공생 가능성을 강조했습니다. 실제로 Demis Hassabis 등 Google DeepMind 경영진은 A2A 발표 직후, Gemini 모델 등의 생태계에서 MCP 지원도 병행할 계획임을 밝히기도 했습니다. 이는 멀티에이전트 시대에 필수적인 표준을 선점하려는 Google의 전략적 포석으로 볼 수 있습니다. 요약하면, Anthropic MCP와 Google A2A는 각각 “툴 사용을 극대화한 단일 에이전트”와 “협업을 극대화한 다중 에이전트”라는 철학적 그림을 그리고 있으며, 궁극적으로 미래 AI 환경에서는 두 접근이 상호보완적으로 활용될 가능성이 높습니다.
기술적 구조의 차이와 개발 적용성 비교
철학의 차이는 프로토콜의 기술 구조와 개발 방식에서도 분명히 드러납니다. MCP(Model Context Protocol)는 클라이언트-서버 아키텍처를 따르며, 기본적으로 LLM 호스트(Claude나 ChatGPT)와 외부 툴 서버 사이의 통신을 표준화합니다. MCP에서 개발자는 각 외부 시스템이나 도구마다 “MCP 서버”를 구현하고, AI 모델이 실행되는 애플리케이션은 “MCP 클라이언트”를 통해 필요한 서버에 접속합니다. MCP 서버는 노출하는 기능을 정확히 명시된 스키마로 표현합니다. 예를 들어 통화 환율 정보를 제공하는 MCP 서버는 get_exchange_rate
라는 함수와 {"currency_from": ..., "currency_to": ...}
등의 엄격한 입력 형식을 정의해 둡니다. 그러면 AI 모델(호스트)이 자체 추론 중에 해당 기능이 필요하다고 판단할 때, MCP 클라이언트를 통해 그 함수를 정해진 JSON 구조로 호출하는 식입니다. 만약 입력 값이나 키가 스키마와 조금이라도 다르면 호출은 실패하며, 정확한 호환이 이루어지도록 설계되어 있습니다. 요컨대 MCP는 “모델이 사용할 수 있는 외부 기능을 사전에 선언하고, 모델이 그 함수를 불러 쓰는” 형태입니다. 개발 관점에서 MCP를 도입하려면, 조직 내 각종 데이터베이스나 API에 MCP 서버 래퍼(wrapper)를 만들어 주고, AI 어시스턴트 애플리케이션에 MCP 클라이언트 SDK를 연동하면 됩니다. Anthropic은 이미 Google Drive, Slack, GitHub 같은 대표적 툴에 대한 MCP 서버 구현체를 공개하여 개발 초기 허들을 낮추었습니다. 하지만 여전히 개발자는 툴별로 스키마 설계를 해주어야 하고, 모델이 해당 툴을 언제 어떻게 쓸지에 대한 프롬프트 튜닝도 고려해야 합니다. 그럼에도 MCP의 장점은 일단 한 번 표준 커넥터를 만들면, 이후에는 LLM이 자체 추론으로 필요한 툴을 골라쓸 수 있어 통합 노력이 크게 줄고 응답 일관성을 얻을 수 있다는 점입니다.
A2A(Agent-to-Agent) 프로토콜은 이와 상당히 다른 접근을 취합니다. A2A의 핵심 개념은 AI 에이전트를 하나의 독립 서비스처럼 취급하여, 에이전트 사이에 주고받는 메시지와 작업을 표준화하는 것입니다. 기술적으로 A2A는 HTTP 기반의 JSON-RPC API 형태로 정의되어 있어, 웹 서비스 개발에 익숙한 개발자라면 비교적 쉽게 이해할 수 있습니다. 각 에이전트는 자신을 나타내는 “에이전트 카드(Agent Card)”를 JSON 파일로 노출하는데, 여기에는 에이전트의 제공 기능 목록, 버전, 엔드포인트 주소, 요구되는 인증 방식 등이 명시됩니다. 이것이 일종의 에이전트의 공개 이력서라면, 실제 통신에서는 에이전트들 간에 주고받는 메시지와 작업 객체가 핵심입니다. A2A에서 작업은 단순한 함수 호출이 아니라 상태를 갖는 장기적 프로세스로 모델링됩니다. 예를 들어 한 에이전트가 다른 에이전트에게 “이 보고서를 요약해줘”라는 자연어 요청을 보내면, 이는 곧 고유 ID를 지닌 하나의 Task로 등록되고 상태가 “진행 중”으로 표시됩니다. 요청을 받은 원격 에이전트는 작업을 처리하면서, 중간 결과나 진행 상황을 스트림 형태로 돌려줄 수도 있습니다. A2A는 Server-Sent Events(SSE)나 Webhook을 통해 실시간 상태 업데이트를 전송하는 메커니즘도 갖추고 있어, 긴 작업도 끊김 없이 협업할 수 있습니다. 작업이 완료되면 상태는 “완료”로 바뀌며 결과물이 첨부되고, 실패하면 “실패” 등의 종료 상태로 마무리됩니다. 이처럼 A2A에서는 에이전트 간 주고받는 요청이 단발성 함수 호출을 넘어 대화 세션과 유사한 연속적 작업 흐름으로 관리되기 때문에, 상호 작용이 유연하고 풍부합니다.
또한 A2A는 전달 내용에 제약을 두지 않고 자유형식의 메시지를 보낼 수 있도록 설계되었습니다. A2A 프로토콜의 메시지는 자연어 텍스트, 파일, 구조화 데이터(JSON) 등의 여러 가지 Part로 구성될 수 있어, 필요하면 한 에이전트가 다른 에이전트에게 이미지 파일이나 JSON 데이터까지 건네줄 수 있습니다. 이러한 유연성 덕분에 개발자는 일일이 함수 인자를 맞추는 대신, 사람과 대화하듯 에이전트에게 요청을 보낼 수 있습니다. 예를 들어 동일한 환율 조회를 MCP와 A2A로 구현한다고 하면, MCP에서는 {"currency_from": "USD", "currency_to": "CAD"}
처럼 격식에 맞는 입력을 구성해야 하지만, A2A에서는 “100달러를 캐나다 달러로 바꿔줘”라는 문장 그대로를 전달하면 됩니다. A2A의 장점은 개발자가 엄격한 스키마 설계에 들이는 시간보다 에이전트 간 시나리오 설계에 집중할 수 있고, 예기치 않은 요청에도 에이전트가 대화로 대처할 수 있다는 것입니다. 반면 단점으로 지적되는 부분은, 자유도가 높은 만큼 표준화된 함수 호출보다 오류 발생 여지가 크고 출력의 예측 가능성이 낮을 수 있다는 점입니다. 이를 보완하기 위해 A2A에서도 에이전트가 자신의 “Skill”을 Agent Card에 기술할 때 몇 가지 예시 문장을 포함하도록 권장하지만, 어디까지나 유연성 중심 설계임은 분명합니다.
정리하면, 두 프로토콜은 아래와 같이 구분할 수 있습니다.
- Anthropic MCP는 툴 명세 중심의 RPC 스타일로, AI 모델이 외부 툴에 접근할 때 미리 정의된 스키마와 함수 호출 방식을 따릅니다. 이로 인해 한 번 툴을 연동하면 모델이 자동으로 활용할 수 있는 장점이 있으나, 각 툴마다 별도로 명세 작업이 필요합니다.
- Google A2A는 단순한 에이전트 추가 및 통신 측면에서 ‘웹서비스 배포’ 수준으로 쉽게 접근할 수 있다는 유연함 뿐만 아니라, 에이전트 간의 대화와 협업을 위해 엄격하게 정의된 Agent Card, 작업 상태 관리, 그리고 JSON-RPC 및 SSE와 같은 표준 프로토콜을 활용하여 통신의 모든 단계에서 체계적인 검증과 정합성을 보장합니다. 즉, 단순한 기능 호출 측면에서는 MCP가 상대적으로 직관적일 수 있지만, 다단계의 복잡한 작업을 여러 에이전트가 분담하는 경우 A2A의 정교한 통신 프로토콜이 오히려 더 엄밀한 시스템을 구성하는 데 기여합니다. A2A는 에이전트 카드에 의해 에이전트의 제공 기능, 인증 요건, 메시지 전송 규약 등이 명확하게 정의되어 있어, 전체 워크플로우 내의 각 에이전트 간에 발생할 수 있는 오작동이나 오류를 예방하고, 보다 철저한 감사 및 모니터링을 가능케 합니다. 또한 A2A의 설계는 각 에이전트가 자체적인 역할과 상태를 관리할 수 있게 하며, 작업 단위로 세밀한 진행 상황을 추적하는 메커니즘을 포함하고 있습니다. 이로 인해 단순히 ‘툴 호출’이 아니라 에이전트 간의 복잡한 대화와 작업 위임에 있어서도 높은 신뢰성과 엄밀성을 보장하는 구조를 갖추게 됩니다. 실제 운영 환경에서는 이러한 검증 체계 덕분에, 다수의 에이전트가 분산된 업무 프로세스를 조율할 때 발생할 수 있는 예기치 못한 오류나 보안 문제를 사전에 차단할 수 있는 효과가 있습니다. 따라서, 초기 진입 장벽 측면에서 A2A는 웹서비스 하나 배포하는 것만으로도 새로운 에이전트를 추가할 수 있을 만큼 간편하지만, 그 내부 통신 방식과 협업 프로토콜은 엄격하고 정교한 체계를 통해 신뢰성을 높이는 데 중점을 두고 있다고 평가할 수 있습니다. 이는 단순 도구 호출 위주의 애플리케이션에서는 MCP가 충분할 수 있으나, 에이전트 간 협업과 복잡한 작업 오케스트레이션이 필요한 환경에서는 오히려 A2A가 더욱 엄밀하고 안전한 선택임을 시사합니다.
에이전트 간 협업 관점에서의 A2A 설계 강점
A2A 프로토콜이 특별히 주목받는 이유는, 에이전트 협업을 본격적으로 염두에 둔 설계를 취하고 있기 때문입니다. 현대의 많은 AI 활용 시나리오에서는 단일 거대 모델보다, 각기 전문성을 가진 여러 모델이 협력하는 편이 더 효율적이거나 안정적인 경우가 많습니다. A2A는 바로 이러한 “에이전트 팀웍”을 기술적으로 뒷받침하는 도구입니다.
첫째, A2A는 에이전트 대 에이전트 간 자유로운 대화를 가능하게 합니다. 사람 사용자가 중간에서 일일이 조율하지 않아도, 에이전트들이 필요에 따라 서로 질의응답을 주고받으며 해결책을 찾아갈 수 있습니다. 예를 들어, 자동차 정비소에 도입된 AI 시스템을 생각해보겠습니다. 정비 상담 에이전트가 고객으로부터 “차량에서 이상한 소리가 나요”라는 요청을 받으면, 이 에이전트는 혼자 판단을 내리지 않고 A2A 프로토콜을 통해 부품 진단 에이전트에게 “왼쪽 바퀴 쪽 사진을 보내줄래?”와 같은 추가 작업을 요청할 수 있습니다. 부품 진단 에이전트는 사진을 분석해 “액체가 새어 나오는데, 얼마나 오래됐나요?”라고 되묻고, 이러한 역동적인 대화를 거쳐 최종 수리 방안에 합의하는 식입니다. 이 과정에서 A2A는 마치 사람들 간 협업처럼 다단계의 의견 교환을 자연스럽게 지원합니다. MCP만으로 이루기 어려운 이런 맥락적 상호작용이, A2A에서는 Task 상태 관리와 메시징을 통해 실현됩니다.
둘째, A2A는 에이전트들의 역할 분담과 전문화를 극대화하기에 좋습니다. 각 에이전트는 Agent Card를 통해 자신이 어떤 능력을 제공하는지를 광고하게 되는데, 이는 다른 에이전트가 필요시 적합한 동료를 발견하고 활용하는 기반이 됩니다. 예컨대 한 연구 보조 에이전트가 “최신 금융 AI 동향 요약” 과제를 받았다고 합시다. 이 에이전트가 자신의 지식만으로 부족함을 느낄 경우, 조직 내 Agent Card 레지스트리를 조회하여 “금융 뉴스 수집 에이전트”를 찾고 A2A로 뉴스 수집 작업을 의뢰합니다. 뉴스 수집 에이전트가 데이터를 모아주면, 이번에는 “요약 전문 에이전트”에게 내용을 전달해 요약을 만들고, 마지막으로 “보고서 작성 에이전트”가 문서 형태로 정리하여 완료하는 식의 에이전트 체인이 가능합니다. 이 전체 과정이 A2A 상에서 자동으로 조정되므로, 사람은 처음에 지시만 내리면 각 단계의 에이전트들이 알아서 협업해 결과를 내놓습니다. 특화된 에이전트들이 각자 맡은 일에 집중하면서도, A2A 덕분에 결과적으로 하나의 큰 과제를 함께 완수할 수 있는 것입니다. 이런 모듈화된 협업은 복잡한 문제 해결에 특히 유용하며, 기업이 AI 업무 파이프라인을 구성할 때도 유연성을 제공합니다.
셋째, A2A는 멀티모달 및 장기 작업 지원 측면에서 협업에 강점을 보입니다. 에이전트 간 주고받는 메시지에 텍스트 이외에 이미지, 오디오, 파일 링크 등을 포함할 수 있어, 시각 정보가 필요한 진단이나 대용량 데이터가 오가는 시나리오도 처리 가능합니다. 또한 앞서 언급했듯, A2A는 여러 시간이 걸리는 작업을 중간 경과와 함께 진행할 수 있도록 설계되어 있습니다. 예를 들어 법률 문서를 검토하는 두 에이전트가 있다고 하면, 한 에이전트가 다른 에이전트에게 수백 페이지에 달하는 계약서를 분석하도록 맡긴 뒤, 분석 진행 상황을 실시간 스트리밍으로 받아보며 다른 업무를 병행할 수도 있습니다. Server-Sent Events로 전달되는 진행 업데이트 덕분에, 협업 중인 에이전트나 최종 사용자도 작업이 어디까지 진행되었는지 투명하게 공유받습니다. 이는 사후에 결과만 던져주는 블랙박스식 협업보다 신뢰성과 효율 면에서 뛰어납니다. 특히 산업 현장에서 인간 담당자와 에이전트 팀이 같이 일하는 경우, 이러한 중간 피드백은 필수적인데 A2A가 그 부분을 충족하는 것입니다.
이 모든 특징은 A2A의 설계 목표가 “에이전트들을 팀으로 묶어 일하게 한다”것임을 확인해줍니다. LangChain 등의 인기 AI 프레임워크 개발자도 A2A에 공감하여 초기부터 참여했는데, 이는 개발 커뮤니티 역시 멀티에이전트 협업의 가치를 높게 보고 있음을 시사합니다. 결국 A2A의 강점은 기술적 성능 지표로 드러나는 것이 아니라, AI 활용의 폭을 넓히는 협업적 아키텍처를 제공한다는 점입니다. 기업 입장에서 A2A는, AI들을 하나의 팀처럼 조직화하여 더 큰 문제를 풀어갈 수 있는 수단이 될 수 있습니다. 이러한 점에서 A2A는 오늘날의 AI 환경에서 이전에는 실현하기 어려웠던 새로운 워크플로우를 가능케 하는 촉매 역할을 할 것으로 기대됩니다.
Google 클라우드/워크스페이스와의 연계 전략 및 워크플로우 예시
Google은 A2A 프로토콜을 발표하면서, 자사 클라우드 서비스 및 워크스페이스에 깊숙이 통합하려는 전략을 분명히 하고 있습니다. 그 중심에는 2023년 말에 출시된 Google Agentspace 플랫폼이 있습니다. Agentspace는 Google Cloud 상에서 동작하는 기업용 AI 에이전트 허브로, 직원들이 다양한 AI 에이전트를 손쉽게 활용할 수 있도록 한 제품입니다. 최신 Google Gemini와 사내 지식베이스를 결합해 업무를 도와주는 이 Agentspace에 A2A 프로토콜이 공식 지원되면서, Google 생태계 내 에이전트들이 공통 언어(A2A)로 소통할 수 있는 토대가 마련되었습니다. 특히 Google은 Workspace 애플리케이션(Gmail, 캘린더, Drive 등)과 A2A 기반 에이전트의 연계를 적극 추진하고 있습니다. 예를 들어, Gmail에는 이메일 요약 및 답변 초안을 생성하는 에이전트가, Calendar에는 일정을 조율하는 에이전트가 있을 때, A2A를 통해 이 둘이 서로 정보를 주고받으며 사용자를 위한 복합 작업을 수행할 수 있습니다. 이메일로 들어온 회의 요청을 일정 에이전트가 자동으로 검토하고, 겹치는 일정 없이 회의를 예약한 후 해당 내용의 답장을 이메일 에이전트가 보내주는 일련의 처리가 가능해지는 것입니다. 이전에는 각 기능을 개별적으로 제공했다면, 이제는 서로 대화하는 에이전트들의 협업으로 하나의 유기적 워크플로우가 완성됩니다.
또 다른 예시로, HR 업무에 A2A를 적용 가능한 시나리오를 들 수 있습니다. 한 기업이 Google Workspace를 업무 기반으로 쓰면서 인사 데이터 관리는 Workday 같은 별도 시스템을 이용한다고 가정해보겠습니다. 기존에는 인사팀 직원이 두 시스템을 오가며 정보 입력과 일정 조율을 했다면, 이제는 각 시스템에 AI 에이전트를 배치하고 A2A로 연결함으로써 자동 협업이 가능해집니다. 예를 들어 채용 담당 에이전트가 새 지원자의 인터뷰 일정을 잡아야 할 때, 지원자의 Google Calendar 정보를 알고 있는 회의 일정 에이전트와 Workday의 채용 정보에 접근할 수 있는 HR 에이전트가 A2A 네트워크로 연결됩니다. 채용 담당 에이전트는 “후보자 A와 면접 일정을 잡아줘”라는 작업을 생성하면, 일정 에이전트가 후보자의 자유 시간을 찾아 제안하고 HR 에이전트는 Workday를 통해 관련 부서 면접관들의 스케줄을 확인합니다. 여러 왕복 교신 끝에 모두가 가능한 시간대로 일정이 정해지면, 일정 에이전트가 후보자에게 캘린더 초대를 보내고 HR 에이전트는 Workday에 일정 정보를 기록하며 절차를 완료합니다. 이 모든 상호작용은 백그라운드에서 A2A 프로토콜로 이루어지며, 사람 담당자는 최종 결과만 확인하면 될 정도로 프로세스가 자동화됩니다. 결국 Google Cloud / Workspace와 A2A의 결합은, 이종 시스템 간의 데이터 통합과 업무 자동화를 AI 에이전트의 협업 형태로 풀어낸다는 의미가 있습니다.
Google은 이를 더욱 촉진하기 위해 에이전트 마켓플레이스 전략도 병행하고 있습니다. 이미 A2A 프로토콜 발표 시점에 Salesforce, SAP, ServiceNow, Box, Workday 등 업계 유력 기업 50여 곳이 파트너로 참여하여 A2A 생태계 조성에 동참했는데, Google Cloud Marketplace 내에 “AI Agent Marketplace”를 만들어 이러한 파트너 에이전트를 제공하고 있습니다 . 기업 고객은 여기에 나온 서드파티 에이전트를 구매하거나 추가하여 자사의 Agentspace에 곧바로 활용할 수 있습니다. 예를 들어 Salesforce CRM용 에이전트나 SAP ERP용 에이전트를 카탈로그에서 선택해 도입하면, 해당 에이전트가 A2A 프로토콜로 자사 다른 에이전트들과 즉시 소통하며 작동하게 됩니다. 이는 마치 스마트폰에 앱을 깔듯 기업에 AI 에이전트를 확장하는 모습이며, A2A가 에이전트 간 인터페이스 표준이 되기에 가능한 일입니다. Google은 이렇게 Cloud 와 Workspace 플랫폼 전체에 A2A를 녹여내어, 고객사들이 AI 에이전트를 분산 배치하더라도 통일된 인터페이스로 연결할 수 있게 하겠다는 것입니다. 이는 복잡해지는 AI 생태계를 통합하려는 전략의 일환이며, 궁극적으로 Google Cloud와 Workspace를 멀티에이전트 시대의 핵심 무대로 만들려는 포석이라 볼 수 있습니다.
이렇듯 Google의 A2A 연계 전략은 기업 내부 프로세스를 혁신할 다양한 잠재력을 갖고 있습니다. 클라우드 인프라, 업무 소프트웨어, AI 에이전트를 하나로 묶어 엔드투엔드 자동화를 이루겠다는 큰 그림 아래, A2A는 그 소통의 언어로 기능하고 있습니다. 이는 경쟁사 대비 Google이 가진 강력한 장점 중 하나로, 플랫폼과 프로토콜을 함께 제공함으로써 고객 락인 효과까지 기대할 수 있는 전략 입니다.
TPUv7 기반의 저비용 고성능 전략이 A2A 확산에 주는 영향
A2A가 궁극적으로 성공하려면, 수많은 에이전트가 활발히 돌아가는 환경을 감당할 인프라가 뒷받침되어야 합니다. Google은 이를 위해 TPU와 효율적 모델을 통한 저비용 고성능 전략을 병행하고 있습니다. 2025년 4월 공개된 7세대 TPU “Ironwood”는 바로 그런 전략의 산물입니다. TPUv7(Ironwood)은 대규모 AI 추론 작업에 특화된 칩으로, 이전 세대 대비 5배 이상의 연산 성능과 6배의 메모리 대역폭 향상을 이뤄냈습니다. 특히 FP8 저정밀도 연산 기준으로 칩당 4,614 TFLOPS에 달하는 엄청난 처리능력을 발휘하며, 최대 9216개 칩을 묶은 TPU Pod은 이론적으로 세계 최강 슈퍼컴퓨터 수준의 연산력(42.5 ExaFlops)을 제공합니다. 중요한 것은 이러한 성능이 LLM의 추론 비용을 크게 낮추는 방향으로 활용된다는 점입니다. TPUv7은 한 개 칩에 192GB의 HBM을 장착하여, 매우 큰 모델도 외부 메모리 접속 없이 한 번에 처리할 수 있습니다. 이는 곧 모델 여러 개를 동시에 실행하거나 한 모델을 여러 에이전트가 공유하는 등 멀티에이전트 시나리오에서 병목을 줄여주는 역할을 합니다. Google이 밝힌 바에 따르면, TPUv7는 이전 세대 대비 추론 지연을 크게 줄이고 비용 효율을 높여 줄 것이며, 이는 A2A 프로토콜로 구현된 복잡한 에이전트 워크플로우를 실용화하는 데 핵심적인 요소입니다.
또한 Google은 Gemini 모델군의 최적화 버전인 Gemini 2.5 Flash 등을 통해 모델 비용 절감 전략도 병행하고 있습니다. 이러한 경량화되고 반응성 좋은 모델들은 A2A 생태계에서 개별 에이전트의 두뇌로 탑재될 경우, 전체 시스템의 응답 속도와 비용을 크게 개선해줍니다. 예를 들어, 이전에는 거대 모델 한 개가 모든 작업을 순차적으로 처리했다면, 이제는 중형급 모델 여러 개를 병렬로 돌려 작업하게 함으로써 더 낮은 비용에 더 빠른 처리가 가능합니다. TPUv7의 등장으로 이처럼 다중 모델 병렬 운영이 한층 현실성을 갖추었고, Google Cloud는 이를 Vertex AI 등 서비스에 적용해 나가고 있습니다.
이 전략이 A2A 확산에 주는 영향은 매우 직접적입니다. 에이전트 수가 늘어날수록 필요한 연산량도 선형적으로 증가하는 경향이 있는데, 하드웨어와 모델 효율이 받쳐주지 않으면 기업 입장에서 멀티에이전트 솔루션 도입은 지나치게 비용이 비싼 실험에 그칠 수 있습니다. Google은 TPUv7을 기반으로 이러한 비용 장벽을 낮추는 것으로, A2A 채택을 가속하려는 것입니다. 예컨대 한 콜센터에 10종의 에이전트를 도입한다고 할 때, TPUv7 이전에는 GPU 수십 장이 필요해 경제성이 떨어졌을 수 있지만, 이제는 동일 작업을 TPUv7 팟 몇 기로 감당 가능해졌다면 이야기가 달라집니다. 특히 Google Cloud는 TPUv7 인스턴스를 클라우드에서 유연하게 확장/축소할 수 있게 제공하므로, 고객은 필요할 때만 많은 에이전트를 돌리고 아닐 때는 리소스를 줄이는 식으로 최적화할 수 있습니다. 이는 A2A 기반 시스템을 실사용 환경에 투입하는 데 있어 비용 효율성을 뒷받침하는 중요한 경쟁력입니다.
전략적 우위 측면에서 보자면, Google은 자체 설계한 AI 칩부터 클라우드 인프라, AI 모델, 그리고 A2A 프로토콜까지 수직 통합한 풀스택을 제공합니다. 덕분에 A2A를 통해 그리는 멀티에이전트 비전을 실제로 구현하고 운영하는 데 필요한 모든 조각을 고객에게 원스톱으로 제공할 수 있습니다. 예를 들어 경쟁사가 유사한 에이전트 협업 솔루션을 제시하더라도, 고객은 결국 NVIDIA GPU 등의 범용 하드웨어를 많이 붙여야 할 수 있는데, Google은 “TPUv7으로 최적화된 A2A 플랫폼”이라는 형태로 차별화된 가격/성능 이점을 제시할 수 있는 것입니다. 실제 업계 전문가들은 “멀티에이전트 AI가 성공하려면 인프라 단의 혁신이 필수인데, Google이 이를 선도함으로써 시장 주도권을 확보할 가능성이 높다”는 견해를 내놓고 있습니다. 요컨대 TPUv7과 저비용 고성능 전략은 A2A 프로토콜의 이상을 현실화하는 기반이며, Google의 멀티에이전트 전략을 하드웨어적 우위로 뒷받침함으로써 향후 경쟁에서 유리한 위치를 만들어주고 있습니다.
엔터프라이즈 적용성 측면에서 A2A의 보안 및 인증 체계 우수성
기업 환경에서 AI 에이전트를 활용하려면 보안과 인증 문제가 무엇보다 중요합니다. A2A 프로토콜은 애초에 엔터프라이즈 사용을 염두에 두고 설계된 만큼, 강력한 보안 및 인증 메커니즘을 내장하고 있다는 점이 특징입니다. 우선 A2A의 모든 통신은 HTTPS 등의 표준 암호화 채널을 통해 이루어져 전송 계층 보안을 확보합니다. 그리고 인증 방식에 있어서, A2A는 OpenAPI 스타일의 인증 스키마를 그대로 차용하여, OAuth 2.0, API 키, JWT 토큰 등 기업에서 익숙한 방식들을 지원합니다. 각 에이전트는 자신의 Agent Card에 어떤 인증이 필요한지와 허가 범위(Scope)를 명시할 수 있고, 호출하는 쪽에서는 그에 맞는 자격 증명을 제시해야만 통신이 이루어집니다. 예를 들어, 사내 인사정보 에이전트는 “인사_조회”라는 범위의 OAuth 토큰이 있는 요청만 받도록 설정하고, 재무 데이터 에이전트는 별도의 API 키를 요구하는 식입니다. 이러한 세분화된 인증 체계 덕분에, 에이전트 간에도 접근 권한을 철저히 통제 할 수 있습니다. MCP의 경우 주로 호스트 애플리케이션 레벨에서 인증이 이뤄지며 프로토콜 자체에는 인증 스키마가 내재되어 있지 않은 반면, A2A는 프로토콜 수준에서 표준화된 인증 규격을 포함하고 있어 기업 표준 IAM 체계와 쉽게 연동됩니다.
또한 A2A는 에이전트 간 교환되는 모든 메시지와 작업의 기록을 남길 수 있으므로, 감사(Audit) 추적과 모니터링에도 유리합니다. 예컨대 한 에이전트가 다른 에이전트에게 요청한 작업 내역, 주고받은 데이터 조각들이 로그에 구조화된 형태로 남기 때문에, 사후에 이를 검토하거나 규제 준수를 확인하기 쉽습니다. 앞서 설명한 산출물(Artifact)과 상태 업데이트 등이 투명하게 관리되므로, 금융이나 의료처럼 감사 요구사항이 높은 산업에서도 신뢰성을 갖고 사용할 수 있습니다. 실제로 A2A 프로토콜은 작업 ID를 기반으로 하는 이력 관리를 기본 기능으로 제공하여, 다중 에이전트가 얽힌 복잡한 프로세스라도 누가 언제 무엇을 했는지 추적할 수 있습니다. 반면 MCP에서는 개별 툴 호출은 기록되겠지만, 여러 호출을 엮은 워크플로우 단위의 상태 관리는 애플리케이션 구현에 맡겨져 있어 이런 부분에서 차이가 있습니다.
Google Cloud의 Agentspace는 여기에 한층 강화된 엔터프라이즈 보안 옵션들을 추가로 제공합니다. Agentspace 상에서 동작하는 A2A 에이전트들은 조직 정책에 따른 역할 기반 액세스 제어를 적용받고, 사용자별로 에이전트 사용 권한을 달리 지정할 수 있습니다. 또한 민감정보 탐지 기능을 통해, 개인정보나 기밀 데이터가 에이전트 간 주고받아지려 할 때 자동으로 차단하거나 익명처리할 수 있습니다. 예컨데 법무팀 에이전트가 고객지원 에이전트에게 정보를 요청하더라도, 그 정보에 개인식별 정보가 포함되어 있으면 시스템이 검출하여 전달을 막거나 경고를 띄우는 식입니다. 고객관리키(CMK)를 활용한 암호화, 데이터 지역성 준수 등 Google Cloud의 기존 보안 서비스들도 A2A 환경에 통합되어, 기업은 클라우드에서 AI 에이전트를 쓰면서도 기존 IT 보안 거버넌스 정책을 그대로 연장할 수 있습니다. 이러한 기능들은 엔터프라이즈급 신뢰성을 요구하는 대기업들에게 A2A를 안심하고 도입할 수 있게 해주는 요소입니다.
A2A의 보안 및 인증 우수성은 전략적 의미도 지닙니다. 기업들이 AI 도입을 꺼리는 주요 이유 중 하나는 데이터 유출 위험인데, A2A는 폐쇄망 환경에서도 동작할 수 있고, 인증된 에이전트 외에는 접근이 불가능하므로 내부 통제가 확실합니다. Anthropic MCP 역시 “보안을 염두에 둔 양방향 연결”을 표방하지만, 이는 주로 통신 암호화와 접근 제한 정도를 의미하며, 엔드투엔드의 기업 보안 통합 측면에서는 A2A가 한층 풍부한 솔루션을 제공합니다. 또한 A2A는 멀티 클라우드 및 하이브리드 환경에서도 각 에이전트의 인증서를 교차 수용하게 함으로써, 예를 들어 한 기업의 온프레미스 에이전트와 파트너사의 클라우드 에이전트가 안전하게 협업하는 것도 가능합니다. 이러한 유연하면서 강력한 보안모델은, 금융기관이나 정부처럼 규제가 엄격한 분야에서도 A2A 도입을 추진할 수 있는 기반이 됩니다. Google이 발표 당시 “A2A는 기본적으로 보안을 고려한 설계”라고 강조한 대로, 이는 단순한 기술 사양 이상의 엔터프라이즈 신뢰 확보 전략이라 할 수 있습니다. 결국 A2A 프로토콜은 기업이 필요로 하는 보안과 통제를 희생하지 않으면서도 AI 에이전트의 힘을 활용할 수 있게 해주는 균형 잡힌 해법을 제시하고 있으며, 이는 타 에이전트 프로토콜 대비 중요한 강점으로 평가할 수 있습니다.
오픈소스 생태계와 커뮤니티 확장성 비교
프로토콜의 성공 여부는 기술 커뮤니티와 오픈소스 생태계의 지지에도 달려 있습니다. Anthropic MCP와 Google A2A 모두 개방형 표준임을 표방하며, 각자의 방식으로 커뮤니티 확장에 힘쓰고 있습니다.
MCP는 애초에 오픈 소스 프로젝트로 시작되었습니다. Anthropic은 MCP 발표와 함께 GitHub에 MCP 명세와 SDK를 공개하고, 여러 초기 파트너들(Block, Apollo, Replit, Sourcegraph 등)이 MCP를 자사 서비스에 통합하고 있다고 밝혔습니다. 특히 2025년 3월에는 OpenAI가 MCP 표준을 채택한다고 발표하며 화제가 되었습니다. ChatGPT의 데스크톱 앱 등에 MCP를 지원해, 향후 OpenAI 생태계에서도 MCP 기반 툴 연동이 가능해진다는 소식이었습니다. 이처럼 Anthropic이 시작한 MCP는 OpenAI, Microsoft 등 업계 주요 플레이어들의 호응을 얻으며 사실상 커뮤니티 주도 표준으로 자리매김할 조짐을 보였습니다. Microsoft도 C#용 MCP SDK 개발에 참여하는 등 오픈소스 공헌을 하고 있고, 다양한 IDE나 독립 개발자 도구들이 MCP를 통해 플러그인 생태계를 넓혀가고 있습니다. 예를 들어, AI 코딩 비서들이 MCP로 파일시스템이나 Git 리포지토리에 접근해 더 똑똑하게 작동하는 사례들이 속속 등장하고 있습니다. 이러한 풀뿌리 개발자층의 지지는 MCP의 가장 큰 자산 중 하나입니다. “MCP는 AI 도구 접근성의 민주화”라는 평가처럼, 거대 기업의 벽을 허물고 다양한 툴과 모델을 연결하는 데 기여하고 있다는 긍정적인 평가가 이어지고 있습니다.
A2A 역시 오픈소스 프로젝트로 공개되었지만, 그 추진 방식은 다소 차이가 있습니다. Google은 A2A를 발표하면서 자사 주도 하에 50여개의 파트너 기업과 함께 표준을 제정했다고 밝혔습니다. 이는 MCP가 비교적 스타트업 주도로 유연하게 출발한 것과 대조적으로, A2A는 거대 기업들의 연합 지원을 등에 업고 시작했음을 의미합니다. 실제 파트너 목록을 보면 Salesforce, SAP, Oracle, MongoDB, Atlassian, Zoom, LangChain 등 다양한 분야의 기업들이 초기부터 참여하여 A2A 호환 에이전트를 개발하거나 자사 플랫폼에 통합할 것임을 밝혔습니다. 이러한 산업계의 폭넓은 연대는 A2A에 대한 신뢰도를 높이고 빠른 확산을 도울 것으로 기대됩니다. 동시에 Google은 A2A의 GitHub 리포지토리를 공개하고, Python/JS용 예제 구현, Agent 개발 키트(ADK) 등을 배포하여 개발자들의 참여를 독려했습니다. 그 결과 A2A는 출시 며칠 만에 GitHub 스타 7천 개를 넘길 정도로 개발자들의 이목을 집중시켰습니다. LangChain, HuggingFace 등 인기 AI 프레임워크들도 곧바로 A2A 지원 계획을 발표하거나 PoC를 선보였고, JetBrains IDE와의 연동 등 개발자 도구 통합도 시도되고 있습니다. Reddit이나 해커뉴스 같은 커뮤니티에서도 A2A의 가능성과 MCP와의 관계에 대해 열띤 토론이 벌어졌습니다.
오픈소스 생태계 측면에서 보면, MCP는 가볍고 범용적인 표준으로 출발하여 커뮤니티가 자연스럽게 수용한 케이스이고, A2A는 Google의 주도력과 파트너십을 바탕으로 톱다운 방식으로 빠르게 생태계를 구축해 나가는 케이스라 할 수 있습니다. 어느 쪽이 성공할지는 결국 실제 채택률에 달려 있습니다. 기술 역사상으로도 유사한 예가 많은데, 종종 기능이 풍부한 복잡한 표준보다 단순하고 구현 쉬운 표준이 승리하곤 했습니다. 예를 들어 과거 웹 서비스 분야에서 SOAP/XML 보다 JSON/REST가 개발자들에게 선호되어 표준이 된 사례처럼 말입니다. JSON 대 XML의 싸움에서 JSON이 이겼듯, 에이전트 프로토콜 전쟁에서도 “사용하기 쉬운 쪽”이 유리할 것이라는 시각도 있습니다. 현재까지 반응을 보면, 개발자 커뮤니티는 두 프로토콜 모두에 관심을 가지고 실제 활용처를 모색하고 있습니다. Anthropic과 OpenAI가 MCP를 플러그인 표준으로 발전시켜나가면서, Google은 A2A를 클라우드 에이전트 표준으로 밀고 있는 양상입니다. 흥미롭게도 Google이 자사 서비스에 MCP도 지원하겠다고 밝힌 만큼, 장차 두 기술이 수렴하거나 공존하는 생태계가 펼쳐질 가능성도 큽니다. 중요한 것은 “프로토콜 간 경쟁이 아니라, 얼마나 풍부한 에이전트와 툴 지원을 이끌어내느냐” 입니다. 그런 면에서 Google의 A2A 전략은 오픈소스 커뮤니티의 활력을 끌어들이면서도 기업 파트너의 실질적 투자를 동시에 받아내고 있어, 확장성 측면에서 매우 공격적인 행보로 평가됩니다. A2A와 MCP는 경쟁이라기보다 퍼즐의 다른 조각처럼 함께 쓰일 수 있다는 인식도 확산되고 있기에, 궁극적으로 두 프로토콜 모두 커뮤니티의 중요 구성요소로 자리잡을 가능성이 높습니다. 다만 향후 표준의 주도권은 누가 더 많은 실사용 사례와 개발자 지지를 얻느냐에 따라 결정될 것입니다. 현재까지는 MCP가 선점 효과로 다양한 오픈 프로젝트에 스며들고 있고, A2A는 기업 솔루션들과 깊이 결합하며 세력을 확장하고 있다고 요약할 수 있습니다.
결론: 트렌드와 기술 방향
Google A2A와 Anthropic MCP의 등장은 AI 기술 트렌드가 “단일 AI에서 다중 AI의 조합”으로 변화하고 있음을 보여주는 신호탄이라 할 수 있습니다. 두 프로토콜 모두 AI 에이전트의 범용적 연결성을 높여 응용 가능성을 극대화하려는 목표를 갖고 있습니다. MCP는 도구와 데이터의 표준 연결을 통해 AI의 눈과 손을 넓혀주었고, A2A는 에이전트들 간의 소통 규약을 통해 AI의 두뇌들이 서로 협력할 수 있게 해주었습니다. 기술적 중립성의 관점에서 둘은 경쟁이라기보다 상호 보완적인 퍼즐 조각이며, 실제 현실에서도 많은 시스템이 MCP와 A2A를 함께 활용하게 될 가능성이 큽니다. 예를 들어, 한 조직의 AI 에이전트 생태계에서 A2A로 에이전트들을 오케스트레이션하고, 각 에이전트는 MCP로 개별 툴과 데이터에 접근하는 구조는 이미 이상적인 조합으로 거론되고 있습니다.
그럼에도 전략적 관점에서 본다면, Google의 A2A에 조금 더 무게추가 실리는 미래를 예상해볼 수 있습니다. 그 이유는 Google이 A2A를 단순한 기술 명세 발표에 그치지 않고, 자사의 클라우드 플랫폼, 업무 애플리케이션, 하드웨어 인프라, 파트너 네트워크를 총동원한 거시 전략으로 전개하고 있기 때문입니다. Google은 “모든 에이전트가 통합되어 작동하는 개방형 생태계”를 주도하겠다는 야심을 숨기지 않고 있습니다. A2A 프로토콜을 Google Cloud의 토대 기술로 밀어붙이며, TPUv7 같은 최첨단 인프라로 성능 뒷받침, Workspace 및 Agentspace로 실제 업무에 침투, 파트너십과 마켓플레이스로 확장 가속화, 오픈소스로 커뮤니티 흡수까지 다각도로 추진하는 모습입니다. 이는 과거 Google이 Android나 Kubernetes 등을 성공시킬 때와 흡사한 전략 패턴으로, 개방형 표준을 주도하여 업계 흐름을 선점하는 데 익숙한 Google의 강점이 발휘되는 영역입니다. 반면 Anthropic은 훌륭한 아이디어로 MCP를 시작했고 OpenAI 등의 호응을 얻었지만, 자체 생태계 구축 역량은 Google에 비해 제한적일 수밖에 없습니다. 물론 OpenAI의 가세로 상황이 변했고, Microsoft 등도 관련 움직임을 보이고 있어 향후 판도는 더 지켜보아야 합니다.
궁극적으로 멀티에이전트 AI 시대가 열린다면, 현재로서는 A2A가 정의한 에이전트 협업 모델이 그 중심에 자리할 가능성이 높습니다. 이는 기술적 우열의 문제가 아니라, 어떤 청사진이 더 광범위한 지지를 얻느냐의 문제입니다. Google은 자사의 전략적 자산(클라우드, 하드웨어, 소프트웨어)을 총결집하여 A2A 청사진을 현실로 만들고 있고, 이에 공감한 산업 파트너들과 함께 AI 생태계의 게임의 룰을 다시 쓰려 하고 있습니다. 기술 리더로서 우리는 이 흐름을 면밀히 살펴볼 필요가 있습니다. 향후 몇 년 내에 사내 업무 자동화, 고객 응대, 데이터 분석 등 수많은 분야에서 AI 에이전트들이 서로 대화하며 문제를 해결하는 모습이 보편화될지 모릅니다. 그 밑단에서 A2A 프로토콜이 표준 언어로 쓰인다면, Google이 그리는 “모듈화되고 연결된 에이전트 중심의 미래”가 실현되는 방향으로 산업이 움직일 것입니다.
A2A와 MCP는 모두 멀티에이전트 시대의 중요한 기술 진전입니다. 각각 뚜렷한 강점을 가지며, 경쟁이라기보다 AI 협업 스택의 다른 층위를 담당합니다. 다만 Google A2A는 그 확장성에 있어서 전략적으로 우위에 있다고 평가할 만합니다. 전사적 보급을 위한 인프라와 사용 사례 확보 측면에서 Google의 투자는 막대하며, 이를 통해 A2A를 사실상의 산업표준으로 격상시킬 추진력을 얻었습니다. 트렌드는 분명합니다. AI의 미래는 협업과 연결에 달려 있고, 개방형 프로토콜이 이를 가능케 합니다. Google의 행보는 이 방향성을 분명히 하고 있으며, A2A 프로토콜은 그 전략의 핵심 축으로 부상했습니다. 이제 AI 에이전트들이 서로 협업하여 이전보다 훨씬 광범위하고 복잡한 문제들을 풀어가는 시대가 다가오고 있습니다. 기술 리더들은 이 변화의 흐름을 주시하며, 자사에 적합한 에이전트 생태계 전략을 수립해야 할 때입니다. Google의 A2A와 Anthropic의 MCP는 그러한 전략 구상에 있어 빼놓을 수 없는 두 가지 축이며, 특히 Google의 움직임을 통해 멀티에이전트 AI의 실체가 구체화되어 가는 과정을 엿볼 수 있습니다.
결국 협력 AI 시대의 핵심은 에이전트들이 함께 문제를 정의하고 해결 방안을 찾아나가는 지능형 시스템 구축이며, A2A와 MCP는 이를 가능케 하는 핵심 기술로 부상했습니다. 앞으로 A2A와 MCP가 가져올 변화는 엔터프라이즈 IT 구조와 비즈니스 프로세스를 넘어서, 조직 문화와 일하는 방식 전반에까지 영향을 미칠 수 있습니다. AI 간 협력이 당연시되는 미래에 대비하려면, 기업들은 이 프로토콜을 비롯한 멀티에이전트 생태계 전반을 깊이 이해하고 선제적으로 대응할 필요가 있습니다. 이는 곧 AI 혁신의 스펙트럼을 넓히고, 궁극적으로는 보다 창의적이고 효율적인 조직을 만드는 밑거름이 될 것입니다.
참고 자료
Google Developers Blog – Announcing the Agent2Agent Protocol (A2A) (2025)
Introducing the Model Context Protocol \ Anthropic
A2A and MCP: Start of the AI Agent Protocol Wars? - Koyeb
A2A Protocol Simply Explained: Here are 3 key differences to MCP! - DEV Community
[Google Agentspace enables the agent-driven enterprise | Google Cloud Blog](https://cloud.google.com/blog/products/ai-machine-learning/google-agentspace-enables-the-agent-driven-enterprise#:~:text=We%27re%20also%20growing%20the%20AI,in%20the%20months%20to%20come) |
Google’s Agent2Agent Protocol (A2A) - Blockchain Council
Google’s 7th-gen Ironwood TPUs promise 42 AI exaFLOPS pods • The Register
Google Cloud Next 2025: News and updates