robots.txt
検索エンジンのクローラーに対して、サイト内でアクセス可能な URL を指定するには、ルート の app
ディレクトリに Robots 除外標準 に準拠した robots.txt
ファイルを追加または生成します。
静的 robots.txt
ファイル
User-Agent: *
Allow: /
Disallow: /private/
Sitemap: https://acme.com/sitemap.xml
Robots ファイルの生成
Robots
オブジェクト を返す robots.js
または robots.ts
ファイルを追加します。
import { MetadataRoute } from 'next'
export default function robots(): MetadataRoute.Robots {
return {
rules: {
userAgent: '*',
allow: '/',
disallow: '/private/',
},
sitemap: 'https://acme.com/sitemap.xml',
}
}
export default function robots() {
return {
rules: {
userAgent: '*',
allow: '/',
disallow: '/private/',
},
sitemap: 'https://acme.com/sitemap.xml',
}
}
出力:
User-Agent: *
Allow: /
Disallow: /private/
Sitemap: https://acme.com/sitemap.xml
Robots オブジェクト
type Robots = {
rules:
| {
userAgent?: string | string[]
allow?: string | string[]
disallow?: string | string[]
crawlDelay?: number
}
| Array<{
userAgent: string | string[]
allow?: string | string[]
disallow?: string | string[]
crawlDelay?: number
}>
sitemap?: string | string[]
host?: string
}
バージョン履歴
バージョン | 変更内容 |
---|---|
v13.3.0 | robots が導入されました。 |