6
6
# Check https://github.com/PyCampES/python-docs-es/blob/3.8/TRANSLATORS to
7
7
# get the list of volunteers
8
8
#
9
- #, fuzzy
10
9
msgid ""
11
10
msgstr ""
12
11
"Project-Id-Version : Python 3.8\n "
13
12
"Report-Msgid-Bugs-To : \n "
14
13
"POT-Creation-Date : 2020-05-05 12:54+0200\n "
15
- "PO-Revision-Date : 2020-07-25 19:08 +0200\n "
14
+ "PO-Revision-Date : 2020-07-25 21:23 +0200\n "
16
15
"Language-Team : python-doc-es\n "
17
16
"MIME-Version : 1.0\n "
18
17
"Content-Type : text/plain; charset=UTF-8\n "
@@ -93,8 +92,8 @@ msgstr ""
93
92
"``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
94
93
"acaba en el código, y la línea en la que se encontró el token. La línea "
95
94
"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
96
- "retorna como una :term:`named tuple` con los campos: ``type string start "
97
- "end line``."
95
+ "retorna como una :term:`named tuple` con los campos: ``type string start end "
96
+ "line``."
98
97
99
98
#: ../Doc/library/tokenize.rst:46
100
99
msgid ""
@@ -105,8 +104,8 @@ msgid ""
105
104
msgstr ""
106
105
"La :term:`named tuple` retorna tiene una propiedad adicional llamada "
107
106
"``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
108
- "`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el "
109
- "valor del campo ``type`` de la tupla con su respectivo nombre."
107
+ "`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el valor "
108
+ "del campo ``type`` de la tupla con su respectivo nombre."
110
109
111
110
#: ../Doc/library/tokenize.rst:51
112
111
msgid "Added support for named tuples."
@@ -196,8 +195,8 @@ msgid ""
196
195
"the first token sequence output by :func:`.tokenize`. If there is no "
197
196
"encoding token in the input, it returns a str instead."
198
197
msgstr ""
199
- "Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que "
200
- "es el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
198
+ "Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que es "
199
+ "el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
201
200
"hay un token de codificación en la entrada, retorna una cadena."
202
201
203
202
#: ../Doc/library/tokenize.rst:96
@@ -315,8 +314,8 @@ msgid ""
315
314
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
316
315
"Otherwise, tokenization is performed on stdin."
317
316
msgstr ""
318
- "Si se especifica :file:`filename.py`, se convierte su contenido a tokens "
319
- "por la salida estándar. En otro caso, se convierte la entrada estándar."
317
+ "Si se especifica :file:`filename.py`, se convierte su contenido a tokens por "
318
+ "la salida estándar. En otro caso, se convierte la entrada estándar."
320
319
321
320
#: ../Doc/library/tokenize.rst:177
322
321
msgid "Examples"
@@ -341,9 +340,8 @@ msgid ""
341
340
"token (if any)"
342
341
msgstr ""
343
342
"se convertirá en la salida siguiente, donde la primera columna es el rango "
344
- "de coordenadas línea/columna donde se encuentra el token, la segunda "
345
- "columna es el nombre del token, y la última columna es el valor del "
346
- "token, si lo hay"
343
+ "de coordenadas línea/columna donde se encuentra el token, la segunda columna "
344
+ "es el nombre del token, y la última columna es el valor del token, si lo hay"
347
345
348
346
#: ../Doc/library/tokenize.rst:256
349
347
msgid ""
@@ -357,8 +355,8 @@ msgid ""
357
355
"Example of tokenizing a file programmatically, reading unicode strings "
358
356
"instead of bytes with :func:`generate_tokens`::"
359
357
msgstr ""
360
- "Ejemplo de tokenización de un fichero programáticamente, leyendo "
361
- "cadenas unicode en lugar de *bytes* con :func:`generate_tokens`::"
358
+ "Ejemplo de tokenización de un fichero programáticamente, leyendo cadenas "
359
+ "unicode en lugar de *bytes* con :func:`generate_tokens`::"
362
360
363
361
#: ../Doc/library/tokenize.rst:292
364
362
msgid "Or reading bytes directly with :func:`.tokenize`::"
0 commit comments