瑞安企业网站开发:如何创建和配置robots.txt文件

瑞安网站建设 | 2019-04-02

那个机器人排除标准是在1994年开发的,以便网站所有者可以建议搜索引擎如何爬行您的网站。它的工作方式类似于最近我详细讨论过的机器人元标签。主要区别在于robots.txt文件将阻止搜索引擎查看页面或目录,而机器人元标记只控制它是否被索引。

将robots.txt文件放置在域的根允许您停止搜索引擎索引敏感文件和目录。例如,可以阻止搜索引擎爬行图像文件夹或索引位于秘密文件夹中的PDF文件。

主要搜索将遵循您设置的规则。但是,请注意,您在robots.txt文件中定义的规则不能强制执行。恶意软件和糟糕的搜索引擎的爬虫可能不符合您的规则和索引,他们想要什么。谢天谢地,主要的搜索引擎都遵循这一标准,包括Google、Bing、Yandex、Ask和百度。

瑞安企业网站开发在本文中,我将向您展示如何创建robots.txt文件,并向您展示哪些文件和目录可能需要隐藏在WordPress网站的搜索引擎中。

机器人排除标准的基本规则

可以在几秒钟内创建robots.txt文件。您所要做的就是打开一个文本编辑器,并将一个空白文件保存为robots.txt。将一些规则添加到文件中后,保存该文件并将其上传到您的域的根目录,即www.yourwebsite.com/robots.txt。请确保将robots.txt上传到域的根目录;即使WordPress安装在子目录中。

瑞安企业网站开发建议文件的文件权限为644。大多数主机设置都会在上传文件后使用这些权限设置该文件。您还应该查看WordPress插件。WP机器人Txt;它允许您通过WordPress管理区域直接修改robots.txt文件。它将使您不必每次修改robots.txt文件时都必须通过FTP重新上传robots.txt文件。

搜索引擎将寻找robots.txt文件在根部的域名,只要他们爬上你的网站。请注意,需要为每个子域和其他协议(如https://www.yourwebsite.com.)配置一个单独的robots.txt文件

不需要很长时间就能完全理解机器人排除标准,因为只有少数几个规则需要学习。这些规则通常被称为指令。

该标准的两个主要指令是:

星号(*)可以用作通配符用户代理引用所有搜索引擎。例如,您可以在网站robots.txt文件中添加以下内容,以阻止搜索引擎爬行整个网站。

User-agent: *
Disallow: /

如果您正在开发一个新网站,并且不希望搜索引擎对您不完整的网站进行索引,上述指令是有用的。

有些网站使用“不允许”指令而不使用正斜杠来声明网站可以爬行。这允许搜索引擎完全访问您的网站.

下面的代码说明所有搜索引擎都可以爬行您的网站。没有理由在robots.txt文件中单独输入此代码,因为即使不定义将此代码添加到robots.txt文件,搜索引擎也会爬行您的网站。但是,可以在robots.txt文件的末尾使用它来引用所有其他用户代理。

User-agent: *
Disallow:

在下面的示例中,您可以看到我已经使用/图像/而不是www.yourwebsite.com/images/。这是因为robots.txt使用相对路径,而不是绝对URL路径。正斜杠(/)引用域的根,因此将规则应用于整个网站。路径区分大小写,因此在定义文件、页和目录时一定要使用正确的大小写。

User-agent: *
Disallow: /images/

为了为特定的搜索引擎定义指令,您需要知道搜索引擎蜘蛛(也就是用户代理)的名称。Googlebot-例如,图像将为Google图片蜘蛛定义规则。

User-agent: Googlebot-Image
Disallow: /images/

请注意,如果您正在定义特定的用户代理,那么重要的是在robots.txt文件开始时列出它们。然后你可以用用户代理:*匹配未显式定义的任何用户代理。

爬行网站的并不总是搜索引擎;这就是为什么用户代理、机器人或机器人这个词经常被使用而不是爬虫这个词的原因。可以爬行你的网站的互联网机器人的数量是巨大的。网站机器人与浏览器目前,它的数据库中列出了大约140万个用户代理,而且这个数字每天都在增长。该列表包含浏览器、游戏设备、操作系统、机器人等。

Botsvs浏览器是一个有用的参考,用于检查您以前从未听说过的用户代理的详细信息。你也可以参考user-Agents.org用户代理字符串。谢天谢地,您不需要记住一长串的用户代理和搜索引擎爬虫。您只需要知道要应用特定规则的机器人和爬虫的名称,并使用*通配符将规则应用于所有其他搜索引擎。

下面是一些您可能想使用的常见搜索引擎蜘蛛:

请注意Google分析本机不显示搜索引擎爬行流量。因为搜索引擎机器人不激活Javascript。但是,GoogleAnalytics可以被配置为显示关于爬行网站的搜索引擎机器人的信息。大多数托管公司提供的日志文件分析器,例如维巴勒AWStats显示有关爬虫的信息。我建议为您的网站查看这些统计数据,以便更好地了解搜索引擎如何与您的网站内容交互。

非标准robots.txt规则

所有爬虫都支持用户代理和不允许,尽管还有一些指令可用.这些都被称为非标准,因为它们并不是所有爬虫都支持的。然而,在实践中,大多数主要搜索引擎也支持这些指令。

瑞安企业网站开发没有必要使用允许指令来建议搜索引擎爬行你的网站,因为默认情况下它会这样做。然而,该规则在某些情况下是有用的。例如,您可以定义一个指令,阻止所有搜索引擎爬行您的网站,但允许特定的搜索引擎,如必应,爬行。您还可以使用该指令允许对特定文件或目录进行爬行;即使网站的其他部分被封锁。

User-agent: Googlebot-Image
Disallow: /images/
Allow: /images/background-images/
Allow: /images/logo.png

请注意,此代码:

User-agent: *
Allow: /

产生与此代码相同的结果:

User-agent: *
Disallow:

正如我前面提到的,您永远不会使用允许指示,建议搜索引擎爬行一个网站,因为它这样做,在默认情况下。

有趣的是,首先在1996年robots.txt草案,但直到几年后,大多数搜索引擎才采用。

Ask.com使用“不允许:“到允许某些目录的爬行。当谷歌两家公司都利用“允许”指令确保其网站的某些区域仍然可以抓取。如果您查看它们的robots.txt文件,您可以看到ALLOW指令总是用于隐藏目录下的子目录、文件和页面。因此,“允许”指令应与“不允许规则”一起使用。

User-agent: Bingbot
Disallow: /files
Allow: /files/eBook-subscribe.pdf/

可以为同一个用户代理定义多个指令。因此,您可以展开robots.txt文件来指定大量指令。这取决于你希望搜索引擎能做什么和不能做什么的具体程度(请注意,你可以添加多少行是有限制的,但我稍后会谈到这一点)。

定义站点地图将有助于搜索引擎更快地找到您的站点地图。这反过来帮助他们找到你的网站内容和索引。您可以使用亚细亚指令在robots.txt文件中定义多个站点地图。

注意,当您指定站点地图的位置时,没有必要定义用户代理。还要记住,Sitemap应该支持robots.txt文件中指定的规则。也就是说,如果robots.txt文件不允许爬行,那么在站点地图中列出页面是没有意义的。

Sitemap可以放置在您的站点地图的任何地方。通常,网站所有者会在robots.txt文件的开头或附近列出他们的站点地图。

Sitemap: http://www.yourwebsite.com/sitemap_index.xml
Sitemap: http://www.yourwebsite.com/category-sitemap.xml
Sitemap: http://www.yourwebsite.com/page-sitemap.xml
Sitemap: http://www.yourwebsite.com/post-sitemap.xml
Sitemap: http://www.yourwebsite.com/forum-sitemap.xml
Sitemap: http://www.yourwebsite.com/topic-sitemap.xml
Sitemap: http://www.yourwebsite.com/post_tag-sitemap.xml

一些搜索引擎支持爬行延迟指令。这允许您指定特定用户代理在服务器上请求之间的秒数。

User-agent: teoma
Crawl-delay: 15

请注意,Google不支持爬行延迟指令。到改变爬行率谷歌的蜘蛛,你需要登录到Google网站管理员工具然后点击场址.

网站管理员工具网站设置可以选择通过齿轮图标。

然后,您将能够将爬行延迟从500秒更改为0.5秒。无法直接输入值;您需要通过滑动选择器来选择爬行率。此外,没有办法为每个Google蜘蛛设置不同的爬行率。例如,不能为Google图片定义一个爬行率,也不能为GoogleNews定义另一个爬行率。您设置的速度用于所有Google爬虫。

不幸的是,一个爬行率适用于所有搜索引擎爬虫。

一些搜索引擎,包括谷歌和俄罗斯搜索引擎Yandex,允许您使用主机指令。这允许具有多个镜像的网站定义首选域。这对于设置镜像以处理由于下载和媒体造成的大带宽需求的大型网站尤其有用。

我本人从未在网站上使用过主机指令,但显然您需要将其放在robots.txt文件的底部,在爬行延迟指令之后。如果您在网站robots.txt文件中使用该指令,请记住这样做。

Host: www.mypreferredwebsite.com

正如你所看到的,机器人排除标准的规则是直接的。请注意,如果robots.txt文件中的规则与使用机器人元标记定义的规则相冲突,则搜索引擎将应用更严格的规则。这是我最近在我的帖子里提到的“如何阻止搜索引擎在WordPress中为特定的文章和页面建立索引“.

先进的robots.txt技术

Google和Bing等大型搜索引擎支持robots.txt中通配符的使用。它们对于表示同一类型的文件非常有用。

星号(*)可用于匹配序列的出现。例如,下面的代码将博客的一系列图像,有标志在开始。

User-agent: *
Disallow: /images/logo*.jpg

上面的代码将不允许图像文件夹中的图像,例如logo.jpg、logo1.jpg、logo2.jpg。jpg和徽标-old.jpg。

注意,如果星号放在规则的末尾,它就什么也不会起作用。例如,不允许:约.html*是相同的不允许:约.html。但是,您可以使用下面的代码来阻止以Word test开头的任何目录中的内容。这将隐藏名为test、testsite、test-123等目录。

User-agent: *
Disallow: /test*/

通配符用于阻止搜索引擎爬行具有特定前缀的特定类型或页面的文件。

例如,要阻止搜索引擎在下载文件夹中爬行所有PDF文档,可以使用以下代码:

User-agent: *
Disallow: /downloads/*.pdf

通过使用以下代码,您可以阻止搜索引擎爬行wp-admin、wp-include和wp内容目录:

User-agent: *
Disallow: /wp-*/

通配符可以在指令中的多个位置使用。在下面的示例中,您可以看到我使用了通配符来表示以假日开头的任何图像。我已经用通配符替换了年份和月份的目录名,这样就可以包含任何图像;不管它上传的月份和年份如何。

User-agent: *
Disallow: /wp-content/uploads/*/*/holiday*.jpg

还可以使用通配符来引用包含特定字符或一系列字符的部分URL。例如,可以阻止包含问号(?)的任何URL。通过使用此代码:

User-agent: *
Disallow: /*?*

以下命令将阻止搜索引擎爬行以引号开头的任何URL:

User-agent: *
Disallow: /"

到目前为止,我还没有提到的一件事是robots.txt使用前缀匹配。这意味着不允许:/dir/将阻止名为/dir/的目录和/dir/directory 2/、/dir/test.html等目录中的搜索引擎。

这也适用于文件名。考虑robots.txt的以下命令:

User-agent: *
Disallow: /page.php

如您所知,上面的代码将阻止搜索引擎爬行page.php。但是,它也会阻止搜索引擎爬行/page.php?id=25和/page.php?id=2&ref=google。简而言之,robots.txt将阻止您阻止的URL的任何扩展。因此,阻止www.yourwebsite.com/123也将阻止www.yourwebsite.com/123456和www.yourwebsite.com/123abc。

在许多情况下,这是想要的效果;但是,有时最好指定路径的结束,这样就不会影响其他URL。为此,您可以使用美元符号($)通配符。当网站所有者想阻止特定类型的文件类型时,经常使用它。

在前面的阻塞page.php示例中,我们可以通过在规则末尾添加$通配符来确保只阻塞page.php。

User-agent: *
Disallow: /page.php$

我们可以使用它来确保只有/dir/目录被阻塞,而不是/dir/directory 2/或/dir/test.html。

User-agent: *
Disallow: /dir/$

许多网站所有者使用$通配符来指定Google Image可以爬行的图像类型:

User-agent: Googlebot-Image
Disallow:
Allow: /*.gif$
Allow: /*.png$
Allow: /*.jpeg$
Allow: /*.jpg$
Allow: /*.ico$
Allow: /*.jpg$
Allow: /images/

我以前阻止PDF和JPG文件的例子没有使用$通配符。我一直有这样的印象,它没有必要使用它,因为像PDF,Word文档或图像文件,不会有任何后缀的URL。也就是说,.pdf、.doc或.png将是URL的绝对结尾。

然而,对于许多网站所有者来说,附加$通配符是一种常见的做法。在我研究这篇文章的过程中,我找不到任何说明为什么需要这样做的文档。如果你们中有人知道做这件事的技术原因,请告诉我,我会更新这篇文章。

请注意,通配符并不是所有爬虫都支持的,因此您可能会发现有些搜索引擎不符合您定义的规则。不支持通配符的搜索引擎将把*视为您希望允许或不允许的字符。

Google、Bing和Ask都积极支持通配符。如果您查看Googlerobots.txt文件,您将看到Google自己使用通配符。

注释robots.txt代码

养成在robots.txt文件中记录代码的习惯最符合您的利益。这将帮助您快速理解您在稍后引用它时添加的规则。

可以使用散列符号#在robots.txt文件中发布注释:

# Block Google Images from crawling the images folder

User-agent: Googlebot-Image
Disallow: /images/

注释可以放在行的开头或指令之后:

User-agent: Googlebot-Image # The Google Images crawler
Disallow: /images/ # Hide the images folder

我鼓励您养成从一开始就对robots.txt文件进行注释的习惯,因为它将帮助您理解稍后查看该文件时创建的规则。

在WordPress robots.txt文件中放置什么

机器人排除标准的伟大之处在于,你可以在互联网上查看任何网站的robots.txt文件(只要他们上传了一个)。你所要做的就是拜访www.websitename.com/robots.txt.

如果您查看一些WordPress网站的robots.txt文件,您将看到网站所有者为搜索引擎定义了不同的规则。

优雅的主题当前在robots.txt文件中使用以下代码:

User-agent: *
Disallow: /preview/
Disallow: /api/
Disallow: /hostgator

正如您所看到的,优雅的主题只会阻止三个目录被爬行和索引。

WordPress的联合创始人Matt Mullenweg在他的个人博客:

User-agent: *
Disallow:

User-agent: Mediapartners-Google*
Disallow:

User-agent: *
Disallow: /dropbox
Disallow: /contact
Disallow: /blog/wp-login.php
Disallow: /blog/wp-admin

马特阻塞一个Dropbox文件夹和一个联系人文件夹。他还阻止WordPress登录页面和WordPress管理区域。

WordPress.org的robots.txt文件中有以下内容:

User-agent: *
Disallow: /search
Disallow: /support/search.php
Disallow: /extend/plugins/search.php
Disallow: /plugins/search.php
Disallow: /extend/themes/search.php
Disallow: /themes/search.php
Disallow: /support/rss
Disallow: /archive/

WordPress.org的robots.txt文件中定义了八条不同的规则,其中六条规则指的是搜索页面。他们的RSS页面也是隐藏的,就像一个根本不存在的存档页面(这意味着它已经很多年没有更新了)。

最有趣的是WordPress.org robots.txt文件不遵循建议将robots.txt文件添加到robots.txt文件中。。他们建议如下:

Sitemap: http://www.example.com/sitemap.xml

# Google Image
User-agent: Googlebot-Image
Disallow:
Allow: /*

# Google AdSense
User-agent: Mediapartners-Google
Disallow:

# digg mirror
User-agent: duggmirror
Disallow: /

# global
User-agent: *
Disallow: /cgi-bin/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /wp-content/cache/
Disallow: /trackback/
Disallow: /feed/
Disallow: /comments/
Disallow: /category/*/*
Disallow: */trackback/
Disallow: */feed/
Disallow: */comments/
Disallow: /*?
Allow: /wp-content/uploads/

瑞安企业网站开发以上代码已在数千个博客中被复制,作为将其添加到robots.txt文件中的最佳规则。代码最初是几年前在WordPress.org上发布的,一直保持不变。建议的代码不允许Digg中的蜘蛛出现,这说明它有多老了(毕竟,已经有好几年没有人担心了。“Digg效应“).

然而,自该页面首次发布以来,机器人排除标准的原则并没有改变。仍然建议您停止搜索引擎爬行重要的目录,如wp-admin,wp-包含,以及您的插件,主题,和缓存目录。最好是隐藏您的CGI-bin和您的RSS提要也。

尤斯特两年前的第一条最好不要隐藏你的网站提要,因为它充当谷歌的站点地图。

“阻止/feed/是个坏主意,因为RSS提要实际上是Google的有效站点地图。阻止它会阻止谷歌在你的网站上找到新的内容。“-Yoast。

作为杰夫·斯塔尔正确指出,如果您已经在网站上有一个功能良好的站点地图,则不需要使用RSS提要作为站点地图。

“当然,如果你没有网站地图的话,这是有道理的。否则,把你的提要内容排除在搜索结果之外,就会把注意力集中在你的实际网页上。“-杰夫·斯塔尔

Yoast对robots.txt文件采取了一种最小的方法。两年前,他向WordPress用户建议如下:

User-Agent: *
Disallow: /wp-content/plugins/

他的当前robots.txt文件有一些额外的行,但大体上与他之前建议的相同。Yoast的最小方法源于他的信念:通过使用标记,许多重要的页面应该被隐藏在搜索引擎的结果中。

WordPress开发者杰夫·斯塔尔,“神奇”一书的作者挖掘WordPress,采取不同的方法。

他当前的robots.txt文件如下所示:

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /comment-page-
Disallow: /trackback/
Disallow: /xmlrpc.php
Disallow: /blackhole/
Disallow: /mint/
Disallow: /feed/
Allow: /tag/mint/
Allow: /tag/feed/
Allow: /wp-content/images/
Allow: /wp-content/online/
Sitemap: http://perishablepress.com/sitemap.xml

除了阻止wp-admin,wp-内容和wp-包含;Jeff阻止搜索引擎看到trackback和WordPress xmlrpc.php(一个允许您查看的文件)。通过博客客户端将文章发布到博客).

评论页面也会被封锁。如果您不将页面分解为注释,那么您可能也需要考虑阻止其他评论页面。

可以在WordPress讨论设置(即www.yourwebsite.com/wp-admin/options-discussion.php.)中找到将注释拆分为页面的选项

Jeff还阻止爬虫看到他的rss提要,他为坏机器人设置的黑洞目录,以及一个名为mint的私有目录。Jeff强调允许查看mint和feed的标记,以及他的图像和一个用于演示和脚本的名为Online的目录。最后,Jeff定义了他的搜索引擎站点地图的位置。

在robots.txt文件中放置什么

我知道你们中的很多人都在阅读这篇文章,他们只是想让代码放在robots.txt文件中,然后继续前进。但是,重要的是要了解为搜索引擎指定的规则。同样重要的是要认识到,对于robots.txt文件中放置的内容还没有达成一致的标准。

我们瑞安企业网站开发在WordPress开发人员Jeff Starr和Joost de Valk(AKA Yoast)的不同方法中看到了这一点,这两个人被公认为WordPress专家。我们还看到WordPress.org上的建议已经有几年没有更新了,他们自己的robots.txt文件没有遵循自己的建议,而是专注于阻止搜索功能。

多年来,我已经多次更改了我的博客robots.txt文件的内容。我的当前robots.txt文件杰夫·斯塔尔的robots.txt建议AskApache的建议,以及其他几位我尊重和信任的开发人员的建议。

目前,robots.txt文件如下所示:

# Disallowed and allowed directories and files

User-agent: *
Disallow: /wp-admin/
Disallow: /wp-content/
Disallow: /wp-includes/
Disallow: /comment-page-
Disallow: /trackback/
Disallow: /xmlrpc.php
Disallow: /feed/
Allow: /wp-content/uploads/

# Define website sitemaps

Sitemap: http://www.kevinmuldoon.com/sitemap_index.xml
Sitemap: http://www.kevinmuldoon.com/post-sitemap.xml
Sitemap: http://www.kevinmuldoon.com/page-sitemap.xml
Sitemap: http://www.kevinmuldoon.com/category-sitemap.xml
Sitemap: http://www.kevinmuldoon.com/author-sitemap.xml

我的robots.txt文件阻止搜索引擎爬行我前面讨论过的重要目录。我还注意到允许爬行我的上传文件夹,以便图像可以被索引。

我一直认为robots.txt文件中的代码是灵活的。如果出现新的信息,表明我应该更改我正在使用的代码,我将很高兴地修改该文件。同样,如果我添加了新的目录到我的网站,或发现一个页面或目录被错误地索引,我将修改该文件。关键是在需要时改进robots.txt文件。

我鼓励您为您自己的网站选择上述robots.txt示例之一,然后将其相应地更改为您自己的网站。记住,重要的是要理解添加到robots.txt文件中的所有指令。“机器人排除标准”可用于停止搜索引擎爬行不希望编入索引的文件和目录,但如果输入错误的代码,则可能会阻止重要页被爬行。

robots.txt文件的最大大小

根据一篇文章阿斯帕奇,您不应该在robots.txt文件中使用超过200行的不允许行。不幸的是,他们没有在文章中提供任何证据来说明为什么会出现这种情况。

2006年,网站管理员世界的一些成员报告说看到谷歌的留言该robots.txt文件不应超过5,000个字符。如果我们假设每行平均有25个字符,那么这可能大约是200行;这可能就是AskApache获得200行不允许行的原因。

谷歌公司的约翰·米勒澄清问题几年后。在Google+上,他说:

“如果您有一个巨型robots.txt文件,请记住Googlebot只读取前500 KB。如果robots.txt更长,它可能导致行以不需要的方式被截断。简单的解决方案是限制robots.txt文件的合理大小。“

如果robots.txt文件有几百行文本,一定要检查它的大小。如果文件大于500 kb,则必须缩小文件的大小,否则可能会应用不完整的规则。

测试robots.txt文件

有许多方法可以测试robots.txt文件。一个选项是使用阻塞URL特性,可以在爬行分节Google网站管理员工具.

登录谷歌网站管理员工具。

该工具将显示网站robots.txt文件的内容。显示的代码来自Google从您的网站中检索到的robots.txt的最后一份副本。因此,如果从那时起更新robots.txt文件,则可能不会显示当前版本。谢天谢地,您可以在框中输入任何您想要的代码。这允许您测试新的robots.txt规则,但请记住,这只是为了测试目的,即仍然需要更新实际的网站robots.txt文件。

您可以根据您希望的任何URL测试robots.txt代码。默认情况下,Googlebot爬虫用于测试robots.txt文件。但是,您也可以从其他四个用户代理中进行选择。这包括谷歌-移动,谷歌-图像,媒体-谷歌(广告),和Adsbot-谷歌(Adword)。

被阻塞的URL对于测试不同的robots.txt规则很有用。

结果将突出显示robots.txt文件中的任何错误;例如链接到不存在的站点地图。这是看到任何需要纠正的错误的好方法。

检查robots.txt文件的结果,看看是否需要更改任何内容。

另一个有用的工具是Froberobots.txt检查器。它将突出显示发现的任何错误,并显示对访问是否有任何限制。

弗罗比的robots.txt检查器速度快,易于使用。

我喜欢的另一个robots.txt分析器可以在上面找到摩托。它将突出显示您输入的任何不支持或未正确配置的命令。

用户友好的robots.txt检查器,它检查robots.txt文件的每一行。

在将代码添加到网站robots.txt文件之前,必须使用robots.txt分析器检查robots.txt文件中的代码。这将确保您没有错误地输入任何行。

最后思想

机器人排除标准是一个强大的工具,建议搜索引擎什么爬行和什么不爬行。理解创建robots.txt文件的基本知识不需要很长时间,但是如果您需要阻止一系列使用通配符的URL,它可能会变得有点混乱。因此,一定要使用robots.txt分析器来确保规则是以您想要的方式设置的。

另外,请记住将robots.txt上传到您的目录的根目录,如果WordPress已安装在子目录中,请确保相应地调整您自己robots.txt文件中的代码。例如,如果您将WordPress安装在www.yourwebsite.com/blog/,瑞安企业网站开发会拒绝这条路/blog/wp-admin/而不是/wp-admin/.


上一篇:瑞安企业网站设计:5个WordPress共享Instagram提要的伟大插件下一篇:瑞安网站开发公司:2019年最适合搜索WordPress新闻的地方