优秀的编程知识分享平台

网站首页 > 技术文章 正文

Google 的 JavaScript 警告及其与 AI 搜索的关系

nanyue 2025-03-25 15:57:58 技术文章 15 ℃

来源:SEO_SEM营销顾问大师

Google 搜索关系团队最近的讨论强调了网络开发中的一个挑战:让 JavaScript 能够与现代搜索工具良好地配合使用。

在 Google 最新的 Search Off The Record 播客中,该团队讨论了 JavaScript 的日益普及,以及在不需要时使用它的趋势。

谷歌搜索开发倡导者 Martin Splitt 指出,JavaScript 的创建是为了帮助网站与移动应用竞争,并带来推送通知和离线访问等功能。

然而,该团队警告称,对 JavaScript 功能的兴奋可能会导致过度使用。

虽然JavaScript 在很多情况下都很实用,但它并不是网站每个部分的最佳选择。

JavaScript 频谱

Splitt 将当前的形势描述为传统网站和网络应用程序之间的一个范围。

他说:

“我们处在一种奇怪的状态,网站就是网站,基本上是呈现在多个页面上并链接的页面和信息,但它也可以是一个应用程序。”

他给出了以下 JavaScript 频谱示例:

“您可以在浏览器中查看公寓……它是一个网站,因为它提供了诸如平方英尺、位于哪一层、地址等信息……但它也是一个应用程序,因为您可以使用 3D 视图参观公寓。”

另请参阅:Google 提供的 6 条 JavaScript 优化技巧

这为什么重要?

Google 搜索倡导者 John Mueller 指出,开发人员普遍倾向于过度依赖 JavaScript:

“很多人喜欢这些 JavaScript 框架,并将它们用于 JavaScript 真正有意义的事情,然后他们会想,‘为什么我不把它用于所有事情呢?’”

当我听到讨论时,我想起了几周前报道过的一项研究。根据这项研究,过度依赖 JavaScript 可能会导致 AI 搜索引擎出现潜在问题。

鉴于人工智能搜索爬虫日益突出的地位,我认为强调这一对话非常重要。

虽然传统搜索引擎通常对 JavaScript 提供很好的支持,但在人工智能搜索时代,它的实现需要更多的考虑。

研究发现,人工智能机器人在搜索爬虫流量中所占的比例越来越大,但这些爬虫无法呈现 JavaScript

这意味着,如果您过度依赖 JavaScript,您可能会失去来自 ChatGPT Search 等搜索引擎的流量。

相关:Google 建议在初始 HTML 中包含产品标记。

需要考虑的事情

JavaScript 的使用和 AI 爬虫的局限性提出了几个重要的考虑因素:

  1. 服务器端渲染:由于 AI 爬虫无法执行客户端 JavaScript,因此服务器端渲染对于确保可见性至关重要。
  2. 内容可访问性:主流 AI 爬虫,如 GPTBot 和 Claude,对内容消费有不同的偏好。GPTBot 优先考虑 HTML 内容(57.7%),而 Claude 更关注图像(35.17%)。
  3. 新的开发方法:这些新的限制可能需要重新评估传统的“JavaScript 优先”开发策略。

前进的道路

随着 AI 爬虫对于索引网站变得越来越重要,您需要平衡 AI 爬虫的现代功能和可访问性。

以下是一些建议:

  • 对关键内容使用服务器端渲染。
  • 确保在初始 HTML 中包含核心内容。
  • 应用渐进增强技术。
  • 谨慎使用 JavaScript。

为了成功,您的网站需要适应传统搜索引擎和 AI 爬虫,同时确保良好的用户体验。

最近发表
标签列表