From 1396b5bf6dd3b74199af0f7c2ef88f52d0e8e9d0 Mon Sep 17 00:00:00 2001 From: 0-Arngerdur-1 Date: Fri, 8 Jan 2021 15:35:02 -0600 Subject: [PATCH 1/3] Traducido archivo library/urllib.robotparser --- TRANSLATORS | 1 + library/urllib.robotparser.po | 49 ++++++++++++++++++++++++++++------- 2 files changed, 41 insertions(+), 9 deletions(-) diff --git a/TRANSLATORS b/TRANSLATORS index 42a38740c7..e0a489596a 100644 --- a/TRANSLATORS +++ b/TRANSLATORS @@ -113,3 +113,4 @@ Sofia Carballo (@sofiacarballo) Alan Verdugo Muñoz (@alanverdugo) Alcides Rivarola (@alcides29) Ricardo Rodríguez (@ricrogz) +(@0-Arngerdur-1) diff --git a/library/urllib.robotparser.po b/library/urllib.robotparser.po index 52f5267a0c..b355992e5f 100644 --- a/library/urllib.robotparser.po +++ b/library/urllib.robotparser.po @@ -6,27 +6,29 @@ # Check https://github.com/python/python-docs-es/blob/3.8/TRANSLATORS to # get the list of volunteers # -#, fuzzy msgid "" msgstr "" "Project-Id-Version: Python 3.8\n" "Report-Msgid-Bugs-To: \n" "POT-Creation-Date: 2020-05-05 12:54+0200\n" -"PO-Revision-Date: YEAR-MO-DA HO:MI+ZONE\n" -"Last-Translator: FULL NAME \n" +"PO-Revision-Date: 2021-01-08 15:24-0600\n" "Language-Team: python-doc-es\n" "MIME-Version: 1.0\n" -"Content-Type: text/plain; charset=utf-8\n" +"Content-Type: text/plain; charset=UTF-8\n" "Content-Transfer-Encoding: 8bit\n" "Generated-By: Babel 2.8.0\n" +"Plural-Forms: nplurals=2; plural=(n != 1);\n" +"Last-Translator: \n" +"Language: es\n" +"X-Generator: Poedit 2.4.1\n" #: ../Doc/library/urllib.robotparser.rst:2 msgid ":mod:`urllib.robotparser` --- Parser for robots.txt" -msgstr "" +msgstr ":mod:`urllib.robotparser` --- Analizador para robots.txt" #: ../Doc/library/urllib.robotparser.rst:10 msgid "**Source code:** :source:`Lib/urllib/robotparser.py`" -msgstr "" +msgstr "**Código fuente:** :source:`Lib/urllib/robotparser.py`" #: ../Doc/library/urllib.robotparser.rst:20 msgid "" @@ -36,30 +38,40 @@ msgid "" "on the structure of :file:`robots.txt` files, see http://www.robotstxt.org/" "orig.html." msgstr "" +"Este módulo proporciona una sola clase, :class:`RobotFileParser`, la cual " +"responde preguntas acerca de si un agente de usuario en particular puede o " +"no obtener una URL en el sitio Web que publico el archivo :file:`robots." +"txt`. Para más detalles sobre la estructura del archivo :file:`robots.txt`, " +"consulte http://www.robotstxt.org/orig.html." #: ../Doc/library/urllib.robotparser.rst:28 msgid "" "This class provides methods to read, parse and answer questions about the :" "file:`robots.txt` file at *url*." msgstr "" +"Esta clase proporciona metodos para leer, analizar y responder preguntas " +"acerca de :file:`robots.txt`" #: ../Doc/library/urllib.robotparser.rst:33 msgid "Sets the URL referring to a :file:`robots.txt` file." -msgstr "" +msgstr "Establece la URL que hace referencia a un archivo :file:`robots.txt`." #: ../Doc/library/urllib.robotparser.rst:37 msgid "Reads the :file:`robots.txt` URL and feeds it to the parser." -msgstr "" +msgstr "Lee la URL :file:`robots.txt` y la envía al analizador." #: ../Doc/library/urllib.robotparser.rst:41 msgid "Parses the lines argument." -msgstr "" +msgstr "Analiza el argumento *lines*." #: ../Doc/library/urllib.robotparser.rst:45 msgid "" "Returns ``True`` if the *useragent* is allowed to fetch the *url* according " "to the rules contained in the parsed :file:`robots.txt` file." msgstr "" +"Devuelve ``True`` si el *useragent* tiene permiso para buscar la *url* de " +"acuaerdo con las reglas contenidas en el archivo :file:`robots.txt` " +"analizado." #: ../Doc/library/urllib.robotparser.rst:51 msgid "" @@ -67,11 +79,16 @@ msgid "" "for long-running web spiders that need to check for new ``robots.txt`` files " "periodically." msgstr "" +"Devuelve la hora en que se recuperó por última vez el archivo ``robots." +"txt``. Esto es útil para arañas web de larga duración que necesitan buscar " +"nuevos archivos ``robots.txt`` periódicamente." #: ../Doc/library/urllib.robotparser.rst:57 msgid "" "Sets the time the ``robots.txt`` file was last fetched to the current time." msgstr "" +"Establece la hora a la que se recuperó por última vez el archivo ``robots." +"txt`` hasta la hora actual." #: ../Doc/library/urllib.robotparser.rst:62 msgid "" @@ -80,6 +97,10 @@ msgid "" "apply to the *useragent* specified or the ``robots.txt`` entry for this " "parameter has invalid syntax, return ``None``." msgstr "" +"Devuelve el valor del parámetro ``Crawl-delay`` de ``robots.txt`` para el " +"*useragent* en cuestión. Si no existe tal parámetro o no se aplica al " +"*useragent* especificado o la entrada ``robots.txt`` para este parámetro " +"tiene una sintaxis no válida, devuelve ``None``." #: ../Doc/library/urllib.robotparser.rst:71 msgid "" @@ -88,6 +109,11 @@ msgid "" "such parameter or it doesn't apply to the *useragent* specified or the " "``robots.txt`` entry for this parameter has invalid syntax, return ``None``." msgstr "" +"Devuelve el contenido del parámetro ``Request-rate`` de ``robots.txt`` como " +"una :term:`tupla nombrada` ``RequestRate(requests, seconds)``. Si no existe " +"tal parámetro o no se aplica al *useragent* especificado o la entrada " +"``robots.txt`` para este parámetro tiene una sintaxis no válida, devuelve " +"``None``." #: ../Doc/library/urllib.robotparser.rst:81 msgid "" @@ -95,9 +121,14 @@ msgid "" "form of a :func:`list`. If there is no such parameter or the ``robots.txt`` " "entry for this parameter has invalid syntax, return ``None``." msgstr "" +"Devuelve el contenido del parámetro ``Sitemap`` de ``robots.txt`` en forma " +"de :func:`list`. Si no existe tal parámetro o la entrada ``robots.txt`` para " +"este parámetro tiene una sintaxis no válida, devuelve ``None``." #: ../Doc/library/urllib.robotparser.rst:89 msgid "" "The following example demonstrates basic use of the :class:`RobotFileParser` " "class::" msgstr "" +"El siguiente ejemplo demuestra el uso básico de la clase :class:" +"`RobotFileParser`:" From e089ee2ffc6c72edb996e2fd8657431ffbc08185 Mon Sep 17 00:00:00 2001 From: 0-Arngerdur-1 <71467991+0-Arngerdur-1@users.noreply.github.com> Date: Thu, 14 Jan 2021 09:48:22 -0600 Subject: [PATCH 2/3] Apply suggestions from code review MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Co-authored-by: Cristián Maureira-Fredes Co-authored-by: Emmanuel Arias --- library/urllib.robotparser.po | 14 +++++++------- 1 file changed, 7 insertions(+), 7 deletions(-) diff --git a/library/urllib.robotparser.po b/library/urllib.robotparser.po index b355992e5f..e16b232bce 100644 --- a/library/urllib.robotparser.po +++ b/library/urllib.robotparser.po @@ -49,7 +49,7 @@ msgid "" "This class provides methods to read, parse and answer questions about the :" "file:`robots.txt` file at *url*." msgstr "" -"Esta clase proporciona metodos para leer, analizar y responder preguntas " +"Esta clase proporciona métodos para leer, analizar y responder preguntas " "acerca de :file:`robots.txt`" #: ../Doc/library/urllib.robotparser.rst:33 @@ -69,8 +69,8 @@ msgid "" "Returns ``True`` if the *useragent* is allowed to fetch the *url* according " "to the rules contained in the parsed :file:`robots.txt` file." msgstr "" -"Devuelve ``True`` si el *useragent* tiene permiso para buscar la *url* de " -"acuaerdo con las reglas contenidas en el archivo :file:`robots.txt` " +"Retorna ``True`` si el *useragent* tiene permiso para buscar la *url* de " +"acuerdo con las reglas contenidas en el archivo :file:`robots.txt` " "analizado." #: ../Doc/library/urllib.robotparser.rst:51 @@ -79,7 +79,7 @@ msgid "" "for long-running web spiders that need to check for new ``robots.txt`` files " "periodically." msgstr "" -"Devuelve la hora en que se recuperó por última vez el archivo ``robots." +"Retorna la hora en que se recuperó por última vez el archivo ``robots." "txt``. Esto es útil para arañas web de larga duración que necesitan buscar " "nuevos archivos ``robots.txt`` periódicamente." @@ -97,7 +97,7 @@ msgid "" "apply to the *useragent* specified or the ``robots.txt`` entry for this " "parameter has invalid syntax, return ``None``." msgstr "" -"Devuelve el valor del parámetro ``Crawl-delay`` de ``robots.txt`` para el " +"Retorna el valor del parámetro ``Crawl-delay`` de ``robots.txt`` para el " "*useragent* en cuestión. Si no existe tal parámetro o no se aplica al " "*useragent* especificado o la entrada ``robots.txt`` para este parámetro " "tiene una sintaxis no válida, devuelve ``None``." @@ -109,7 +109,7 @@ msgid "" "such parameter or it doesn't apply to the *useragent* specified or the " "``robots.txt`` entry for this parameter has invalid syntax, return ``None``." msgstr "" -"Devuelve el contenido del parámetro ``Request-rate`` de ``robots.txt`` como " +"Retorna el contenido del parámetro ``Request-rate`` de ``robots.txt`` como " "una :term:`tupla nombrada` ``RequestRate(requests, seconds)``. Si no existe " "tal parámetro o no se aplica al *useragent* especificado o la entrada " "``robots.txt`` para este parámetro tiene una sintaxis no válida, devuelve " @@ -121,7 +121,7 @@ msgid "" "form of a :func:`list`. If there is no such parameter or the ``robots.txt`` " "entry for this parameter has invalid syntax, return ``None``." msgstr "" -"Devuelve el contenido del parámetro ``Sitemap`` de ``robots.txt`` en forma " +"Retorna el contenido del parámetro ``Sitemap`` de ``robots.txt`` en forma " "de :func:`list`. Si no existe tal parámetro o la entrada ``robots.txt`` para " "este parámetro tiene una sintaxis no válida, devuelve ``None``." From 1ff479ac4d1168de4d8fdcd5f99488dad574c213 Mon Sep 17 00:00:00 2001 From: 0-Arngerdur-1 Date: Sun, 17 Jan 2021 20:16:35 -0600 Subject: [PATCH 3/3] Traducido archivo library/urllib.robotparser --- library/urllib.robotparser.po | 9 ++++----- 1 file changed, 4 insertions(+), 5 deletions(-) diff --git a/library/urllib.robotparser.po b/library/urllib.robotparser.po index e16b232bce..a7b8312234 100644 --- a/library/urllib.robotparser.po +++ b/library/urllib.robotparser.po @@ -70,8 +70,7 @@ msgid "" "to the rules contained in the parsed :file:`robots.txt` file." msgstr "" "Retorna ``True`` si el *useragent* tiene permiso para buscar la *url* de " -"acuerdo con las reglas contenidas en el archivo :file:`robots.txt` " -"analizado." +"acuerdo con las reglas contenidas en el archivo :file:`robots.txt` analizado." #: ../Doc/library/urllib.robotparser.rst:51 msgid "" @@ -79,9 +78,9 @@ msgid "" "for long-running web spiders that need to check for new ``robots.txt`` files " "periodically." msgstr "" -"Retorna la hora en que se recuperó por última vez el archivo ``robots." -"txt``. Esto es útil para arañas web de larga duración que necesitan buscar " -"nuevos archivos ``robots.txt`` periódicamente." +"Retorna la hora en que se recuperó por última vez el archivo ``robots.txt``. " +"Esto es útil para arañas web de larga duración que necesitan buscar nuevos " +"archivos ``robots.txt`` periódicamente." #: ../Doc/library/urllib.robotparser.rst:57 msgid ""