Skip to content

Commit 723359e

Browse files
committed
Arreglar rewrap en library/tokenize.po
1 parent c3f268d commit 723359e

File tree

1 file changed

+13
-15
lines changed

1 file changed

+13
-15
lines changed

library/tokenize.po

+13-15
Original file line numberDiff line numberDiff line change
@@ -6,13 +6,12 @@
66
# Check https://github.com/PyCampES/python-docs-es/blob/3.8/TRANSLATORS to
77
# get the list of volunteers
88
#
9-
#, fuzzy
109
msgid ""
1110
msgstr ""
1211
"Project-Id-Version: Python 3.8\n"
1312
"Report-Msgid-Bugs-To: \n"
1413
"POT-Creation-Date: 2020-05-05 12:54+0200\n"
15-
"PO-Revision-Date: 2020-07-25 19:08+0200\n"
14+
"PO-Revision-Date: 2020-07-25 21:23+0200\n"
1615
"Language-Team: python-doc-es\n"
1716
"MIME-Version: 1.0\n"
1817
"Content-Type: text/plain; charset=UTF-8\n"
@@ -93,8 +92,8 @@ msgstr ""
9392
"``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
9493
"acaba en el código, y la línea en la que se encontró el token. La línea "
9594
"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
96-
"retorna como una :term:`named tuple` con los campos: ``type string start "
97-
"end line``."
95+
"retorna como una :term:`named tuple` con los campos: ``type string start end "
96+
"line``."
9897

9998
#: ../Doc/library/tokenize.rst:46
10099
msgid ""
@@ -105,8 +104,8 @@ msgid ""
105104
msgstr ""
106105
"La :term:`named tuple` retorna tiene una propiedad adicional llamada "
107106
"``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
108-
"`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el "
109-
"valor del campo ``type`` de la tupla con su respectivo nombre."
107+
"`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el valor "
108+
"del campo ``type`` de la tupla con su respectivo nombre."
110109

111110
#: ../Doc/library/tokenize.rst:51
112111
msgid "Added support for named tuples."
@@ -196,8 +195,8 @@ msgid ""
196195
"the first token sequence output by :func:`.tokenize`. If there is no "
197196
"encoding token in the input, it returns a str instead."
198197
msgstr ""
199-
"Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que "
200-
"es el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
198+
"Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que es "
199+
"el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
201200
"hay un token de codificación en la entrada, retorna una cadena."
202201

203202
#: ../Doc/library/tokenize.rst:96
@@ -315,8 +314,8 @@ msgid ""
315314
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
316315
"Otherwise, tokenization is performed on stdin."
317316
msgstr ""
318-
"Si se especifica :file:`filename.py`, se convierte su contenido a tokens "
319-
"por la salida estándar. En otro caso, se convierte la entrada estándar."
317+
"Si se especifica :file:`filename.py`, se convierte su contenido a tokens por "
318+
"la salida estándar. En otro caso, se convierte la entrada estándar."
320319

321320
#: ../Doc/library/tokenize.rst:177
322321
msgid "Examples"
@@ -341,9 +340,8 @@ msgid ""
341340
"token (if any)"
342341
msgstr ""
343342
"se convertirá en la salida siguiente, donde la primera columna es el rango "
344-
"de coordenadas línea/columna donde se encuentra el token, la segunda "
345-
"columna es el nombre del token, y la última columna es el valor del "
346-
"token, si lo hay"
343+
"de coordenadas línea/columna donde se encuentra el token, la segunda columna "
344+
"es el nombre del token, y la última columna es el valor del token, si lo hay"
347345

348346
#: ../Doc/library/tokenize.rst:256
349347
msgid ""
@@ -357,8 +355,8 @@ msgid ""
357355
"Example of tokenizing a file programmatically, reading unicode strings "
358356
"instead of bytes with :func:`generate_tokens`::"
359357
msgstr ""
360-
"Ejemplo de tokenización de un fichero programáticamente, leyendo "
361-
"cadenas unicode en lugar de *bytes* con :func:`generate_tokens`::"
358+
"Ejemplo de tokenización de un fichero programáticamente, leyendo cadenas "
359+
"unicode en lugar de *bytes* con :func:`generate_tokens`::"
362360

363361
#: ../Doc/library/tokenize.rst:292
364362
msgid "Or reading bytes directly with :func:`.tokenize`::"

0 commit comments

Comments
 (0)