Skip to content

Commit b54ddea

Browse files
committed
Traducción de library/tokenize.po
1 parent 2a50b46 commit b54ddea

File tree

1 file changed

+107
-17
lines changed

1 file changed

+107
-17
lines changed

library/tokenize.po

+107-17
Original file line numberDiff line numberDiff line change
@@ -12,21 +12,24 @@ msgstr ""
1212
"Project-Id-Version: Python 3.8\n"
1313
"Report-Msgid-Bugs-To: \n"
1414
"POT-Creation-Date: 2020-05-05 12:54+0200\n"
15-
"PO-Revision-Date: YEAR-MO-DA HO:MI+ZONE\n"
16-
"Last-Translator: FULL NAME <EMAIL@ADDRESS>\n"
15+
"PO-Revision-Date: 2020-07-25 18:56+0200\n"
1716
"Language-Team: python-doc-es\n"
1817
"MIME-Version: 1.0\n"
19-
"Content-Type: text/plain; charset=utf-8\n"
18+
"Content-Type: text/plain; charset=UTF-8\n"
2019
"Content-Transfer-Encoding: 8bit\n"
2120
"Generated-By: Babel 2.8.0\n"
21+
"Plural-Forms: nplurals=2; plural=(n != 1);\n"
22+
"Last-Translator: Ignasi Fosch <natx@y10k.ws>\n"
23+
"Language: es\n"
24+
"X-Generator: Poedit 2.3.1\n"
2225

2326
#: ../Doc/library/tokenize.rst:2
2427
msgid ":mod:`tokenize` --- Tokenizer for Python source"
25-
msgstr ""
28+
msgstr ":mod:`tokenize` --- Tokenizador para código Python"
2629

2730
#: ../Doc/library/tokenize.rst:10
2831
msgid "**Source code:** :source:`Lib/tokenize.py`"
29-
msgstr ""
32+
msgstr "**Código fuente:** :source:`Lib/tokenize.py`"
3033

3134
#: ../Doc/library/tokenize.rst:14
3235
msgid ""
@@ -35,6 +38,10 @@ msgid ""
3538
"tokens as well, making it useful for implementing \"pretty-printers\", "
3639
"including colorizers for on-screen displays."
3740
msgstr ""
41+
"El módulo :mod:`tokenize` provee un analizador léxico para código fuente "
42+
"Python, implementado en Python. Este analizador también devuelve comentarios "
43+
"como *tokens*, siendo útil para implementar *\"pretty-printers\"*, como "
44+
"*colorizers* para impresiones en pantalla."
3845

3946
#: ../Doc/library/tokenize.rst:19
4047
msgid ""
@@ -44,14 +51,19 @@ msgid ""
4451
"checking the ``exact_type`` property on the :term:`named tuple` returned "
4552
"from :func:`tokenize.tokenize`."
4653
msgstr ""
54+
"Para simplificar el manejo de flujos de *tokens*, todos los *tokens* :ref:"
55+
"`operator <operators>` y :ref:`delimiter <delimiters>` y :data:`Ellipsis` se "
56+
"devuelve usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
57+
"determinar usando la propiedad ``exact_type`` en la :term:`named tuple` "
58+
"devuelta por :func:`tokenize.tokenize`."
4759

4860
#: ../Doc/library/tokenize.rst:26
4961
msgid "Tokenizing Input"
50-
msgstr ""
62+
msgstr "Convirtiendo la entrada en *tokens*"
5163

5264
#: ../Doc/library/tokenize.rst:28
5365
msgid "The primary entry point is a :term:`generator`:"
54-
msgstr ""
66+
msgstr "El punto de entrada principal es un :term:`generador`:"
5567

5668
#: ../Doc/library/tokenize.rst:32
5769
msgid ""
@@ -60,6 +72,10 @@ msgid ""
6072
"IOBase.readline` method of file objects. Each call to the function should "
6173
"return one line of input as bytes."
6274
msgstr ""
75+
"El generador :func:`.tokenize` requiere un argumento, *readline*, que debe "
76+
"ser un objeto invocable que provee la misma interfaz que el método :meth:`io."
77+
"IOBase.readline` de los objetos *file*. Cada llamada a la función debe "
78+
"devolver una línea de entrada como bytes."
6379

6480
#: ../Doc/library/tokenize.rst:37
6581
msgid ""
@@ -71,6 +87,14 @@ msgid ""
7187
"is the *physical* line. The 5 tuple is returned as a :term:`named tuple` "
7288
"with the field names: ``type string start end line``."
7389
msgstr ""
90+
"El generador produce una tupla con los siguientes 5 miembros: El tipo de "
91+
"*token*, la cadena del *token*, una tupla ``(srow, scol)`` de enteros "
92+
"especificando la fila y columna donde el *token* empieza en el código, una "
93+
"``(erow, ecol)`` de enteros especificando la fila y columna donde el *token* "
94+
"acaba en el código, y la línea en la que se encontró el *token*. La línea "
95+
"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
96+
"devuelve como una :term:`named tuple` con los campos: ``type string start "
97+
"end line``."
7498

7599
#: ../Doc/library/tokenize.rst:46
76100
msgid ""
@@ -79,57 +103,77 @@ msgid ""
79103
"tokens. For all other token types ``exact_type`` equals the named tuple "
80104
"``type`` field."
81105
msgstr ""
106+
"La :term:`named tuple` devuelta tiene una propiedad adicional llamada "
107+
"``exact_type`` que contiene el tipo de operador exacto para *tokens* :data:"
108+
"`~token.OP`. Para todos los otros tipos de *token*, ``exact_type`` es el "
109+
"valor del campo ``type`` de la tupla con su respectivo nombre."
82110

83111
#: ../Doc/library/tokenize.rst:51
84112
msgid "Added support for named tuples."
85-
msgstr ""
113+
msgstr "Añadido soporte para tuplas con nombre."
86114

87115
#: ../Doc/library/tokenize.rst:54
88116
msgid "Added support for ``exact_type``."
89-
msgstr ""
117+
msgstr "Añadido soporte para ``exact_type``."
90118

91119
#: ../Doc/library/tokenize.rst:57
92120
msgid ""
93121
":func:`.tokenize` determines the source encoding of the file by looking for "
94122
"a UTF-8 BOM or encoding cookie, according to :pep:`263`."
95123
msgstr ""
124+
":func:`tokenize` determina la codificación del fichero buscando una marca "
125+
"BOM UTF-8 o una *cookie* de codificación, de acuerdo con :pep:`263`."
96126

97127
#: ../Doc/library/tokenize.rst:62
98128
msgid "Tokenize a source reading unicode strings instead of bytes."
99129
msgstr ""
130+
"Convertir a *tokens* una fuente leyendo cadenas unicode en lugar de bytes."
100131

101132
#: ../Doc/library/tokenize.rst:64
102133
msgid ""
103134
"Like :func:`.tokenize`, the *readline* argument is a callable returning a "
104135
"single line of input. However, :func:`generate_tokens` expects *readline* to "
105136
"return a str object rather than bytes."
106137
msgstr ""
138+
"Como :func:`.tokenize`, el argumento *readline* es un invocable que devuelve "
139+
"una sola línea de entrada. Sin embargo, :func:`generate_tokens` espera que "
140+
"*readline* devuelva un objeto *str* en lugar de *bytes*."
107141

108142
#: ../Doc/library/tokenize.rst:68
109143
msgid ""
110144
"The result is an iterator yielding named tuples, exactly like :func:`."
111145
"tokenize`. It does not yield an :data:`~token.ENCODING` token."
112146
msgstr ""
147+
"El resultado es un iterador que produce tuplas con nombre, exactamente como :"
148+
"func:`.tokenize`. No produce un *token* :data:`~token.ENCODING`."
113149

114150
#: ../Doc/library/tokenize.rst:71
115151
msgid ""
116152
"All constants from the :mod:`token` module are also exported from :mod:"
117153
"`tokenize`."
118154
msgstr ""
155+
"Todas las constantes del módulo :mod:`token` se exportan también desde :mod:"
156+
"`tokenize`."
119157

120158
#: ../Doc/library/tokenize.rst:74
121159
msgid ""
122160
"Another function is provided to reverse the tokenization process. This is "
123161
"useful for creating tools that tokenize a script, modify the token stream, "
124162
"and write back the modified script."
125163
msgstr ""
164+
"Otra función se encarga de invertir el proceso de conversión. Esto es útil "
165+
"para crear herramientas que convierten a *tokens* un *script*, modificar el "
166+
"flujo de *token*, y escribir el *script* modificado."
126167

127168
#: ../Doc/library/tokenize.rst:81
128169
msgid ""
129170
"Converts tokens back into Python source code. The *iterable* must return "
130171
"sequences with at least two elements, the token type and the token string. "
131172
"Any additional sequence elements are ignored."
132173
msgstr ""
174+
"Convierte los *tokens* de vuelta en código fuente Python. El *iterable* debe "
175+
"devolver secuencias con al menos dos elementos, el tipo de *token* y la "
176+
"cadena del *token*. Cualquier otro elemento de la secuencia es ignorado."
133177

134178
#: ../Doc/library/tokenize.rst:85
135179
msgid ""
@@ -139,32 +183,50 @@ msgid ""
139183
"token type and token string as the spacing between tokens (column positions) "
140184
"may change."
141185
msgstr ""
186+
"El *script* reconstruido se devuelve como una cadena simple. El resultado "
187+
"está garantizado de que se convierte en *tokens* de vuelta a la misma "
188+
"entrada, de modo que la conversión no tiene pérdida y que las conversiones "
189+
"de ida y de vuelta están aseguradas. La garantía aplica sólo al tipo y la "
190+
"cadena del *token*, ya que el espaciado entre *tokens* (posiciones de "
191+
"columna) pueden variar."
142192

143193
#: ../Doc/library/tokenize.rst:91
144194
msgid ""
145195
"It returns bytes, encoded using the :data:`~token.ENCODING` token, which is "
146196
"the first token sequence output by :func:`.tokenize`. If there is no "
147197
"encoding token in the input, it returns a str instead."
148198
msgstr ""
199+
"Devuelve bytes, codificados usando el *token* :data:`~token.ENCODING`, que "
200+
"es el primer elemento de la secuencia devuelta por :func:`.tokenize`. Si no "
201+
"hay un *token* de codificación en la entrada, devuelve una cadena."
149202

150203
#: ../Doc/library/tokenize.rst:96
151204
msgid ""
152205
":func:`.tokenize` needs to detect the encoding of source files it tokenizes. "
153206
"The function it uses to do this is available:"
154207
msgstr ""
208+
":func:`.tokenize` necesita detectar la codificación de los ficheros fuente "
209+
"que convierte a *tokens*. La función que utiliza para hacer esto está "
210+
"disponible como:"
155211

156212
#: ../Doc/library/tokenize.rst:101
157213
msgid ""
158214
"The :func:`detect_encoding` function is used to detect the encoding that "
159215
"should be used to decode a Python source file. It requires one argument, "
160216
"readline, in the same way as the :func:`.tokenize` generator."
161217
msgstr ""
218+
"La función :func:`detect_encoding` se usa para detectar la codificación que "
219+
"debería usarse al leer un fichero fuente Python. Requiere un argumento, "
220+
"*readline*, del mismo modo que el generador :func:`.tokenize`."
162221

163222
#: ../Doc/library/tokenize.rst:105
164223
msgid ""
165224
"It will call readline a maximum of twice, and return the encoding used (as a "
166225
"string) and a list of any lines (not decoded from bytes) it has read in."
167226
msgstr ""
227+
"Llamará a *readline* un máximo de dos veces, devolviendo la codificación "
228+
"usada, como cadena, y una lista del resto de líneas leídas, no "
229+
"descodificadas de *bytes*."
168230

169231
#: ../Doc/library/tokenize.rst:109
170232
msgid ""
@@ -173,83 +235,103 @@ msgid ""
173235
"but disagree, a :exc:`SyntaxError` will be raised. Note that if the BOM is "
174236
"found, ``'utf-8-sig'`` will be returned as an encoding."
175237
msgstr ""
238+
"Detecta la codificación a partir de la presencia de una marca BOM UTF-8 o "
239+
"una *cookie* de codificación, como se especifica en :pep:`263`. Si ambas "
240+
"están presentes pero en desacuerdo, se lanzará un :exc:`SyntaxError`. "
241+
"Resaltar que si se encuentra la marca BOM, se devolverá ``'utf-8-sig'`` como "
242+
"codificación."
176243

177244
#: ../Doc/library/tokenize.rst:114
178245
msgid ""
179246
"If no encoding is specified, then the default of ``'utf-8'`` will be "
180247
"returned."
181248
msgstr ""
249+
"Si no se especifica una codificación, por defecto se devolverá ``'utf-8'``."
182250

183251
#: ../Doc/library/tokenize.rst:117
184252
msgid ""
185253
"Use :func:`.open` to open Python source files: it uses :func:"
186254
"`detect_encoding` to detect the file encoding."
187255
msgstr ""
256+
"Usa :func:`.open` para abrir ficheros fuente Python: Ésta utiliza :func:"
257+
"`detect_encoding` para detectar la codificación del fichero."
188258

189259
#: ../Doc/library/tokenize.rst:123
190260
msgid ""
191261
"Open a file in read only mode using the encoding detected by :func:"
192262
"`detect_encoding`."
193263
msgstr ""
264+
"Abrir un fichero en modo sólo lectura usando la codificación detectada por :"
265+
"func:`detect_encoding`."
194266

195267
#: ../Doc/library/tokenize.rst:130
196268
msgid ""
197269
"Raised when either a docstring or expression that may be split over several "
198270
"lines is not completed anywhere in the file, for example::"
199271
msgstr ""
272+
"Lanzada cuando una expresión o *docstring* que puede separarse en más líneas "
273+
"no está completa en el fichero, por ejemplo::"
200274

201275
#: ../Doc/library/tokenize.rst:136
202276
msgid "or::"
203-
msgstr ""
277+
msgstr "o::"
204278

205279
#: ../Doc/library/tokenize.rst:142
206280
msgid ""
207281
"Note that unclosed single-quoted strings do not cause an error to be raised. "
208282
"They are tokenized as :data:`~token.ERRORTOKEN`, followed by the "
209283
"tokenization of their contents."
210284
msgstr ""
285+
"Destacar que cadenas con comillas simples sin finalizar no lanzan un error. "
286+
"Se convertirán en *tokens* como :data:`~token.ERRORTOKEN`, seguido de la "
287+
"conversión de su contenido."
211288

212289
#: ../Doc/library/tokenize.rst:150
213290
msgid "Command-Line Usage"
214-
msgstr ""
291+
msgstr "Uso como línea de comandos"
215292

216293
#: ../Doc/library/tokenize.rst:154
217294
msgid ""
218295
"The :mod:`tokenize` module can be executed as a script from the command "
219296
"line. It is as simple as:"
220297
msgstr ""
298+
"El módulo :mod:`tokenize` se puede ejecutar como *script* desde la línea de "
299+
"comandos. Es tan simple como:"
221300

222301
#: ../Doc/library/tokenize.rst:161
223302
msgid "The following options are accepted:"
224-
msgstr ""
303+
msgstr "Se aceptan las siguientes opciones:"
225304

226305
#: ../Doc/library/tokenize.rst:167
227306
msgid "show this help message and exit"
228-
msgstr ""
307+
msgstr "muestra el mensaje de ayuda y sale"
229308

230309
#: ../Doc/library/tokenize.rst:171
231310
msgid "display token names using the exact type"
232-
msgstr ""
311+
msgstr "muestra los nombres de token usando el tipo exacto"
233312

234313
#: ../Doc/library/tokenize.rst:173
235314
msgid ""
236315
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
237316
"Otherwise, tokenization is performed on stdin."
238317
msgstr ""
318+
"Si se especifica :file:`filename.py`, se convierte su contenido a *tokens* "
319+
"por la salida estándar. En otro caso, se convierte la entrada estándar."
239320

240321
#: ../Doc/library/tokenize.rst:177
241322
msgid "Examples"
242-
msgstr ""
323+
msgstr "Ejemplos"
243324

244325
#: ../Doc/library/tokenize.rst:179
245326
msgid ""
246327
"Example of a script rewriter that transforms float literals into Decimal "
247328
"objects::"
248329
msgstr ""
330+
"Ejemplo de un *script* que transforma literales *float* en objetos Decimal::"
249331

250332
#: ../Doc/library/tokenize.rst:221
251333
msgid "Example of tokenizing from the command line. The script::"
252-
msgstr ""
334+
msgstr "Ejemplo de conversión desde la línea de comandos. El *script*::"
253335

254336
#: ../Doc/library/tokenize.rst:228
255337
msgid ""
@@ -258,18 +340,26 @@ msgid ""
258340
"column is the name of the token, and the final column is the value of the "
259341
"token (if any)"
260342
msgstr ""
343+
"se convertirá en la salida siguiente, donde la primera columna es el rango "
344+
"de coordenadas línea/columna donde se encuentra el *token*, la segunda "
345+
"columna es el nombre del *token*, y la última columna es el valor del "
346+
"*token*, si lo hay"
261347

262348
#: ../Doc/library/tokenize.rst:256
263349
msgid ""
264350
"The exact token type names can be displayed using the :option:`-e` option:"
265351
msgstr ""
352+
"Los nombres de tipos de *token* exactos se pueden mostrar con la opción :"
353+
"option:`-e`:"
266354

267355
#: ../Doc/library/tokenize.rst:282
268356
msgid ""
269357
"Example of tokenizing a file programmatically, reading unicode strings "
270358
"instead of bytes with :func:`generate_tokens`::"
271359
msgstr ""
360+
"Ejemplo de conversión de un fichero a *tokens* programáticamente, leyendo "
361+
"cadenas unicode en lugar de *bytes* con :func:`generate_tokens`::"
272362

273363
#: ../Doc/library/tokenize.rst:292
274364
msgid "Or reading bytes directly with :func:`.tokenize`::"
275-
msgstr ""
365+
msgstr "O leyendo *bytes* directamente con :func:`.tokenize`::"

0 commit comments

Comments
 (0)