@@ -12,21 +12,24 @@ msgstr ""
12
12
"Project-Id-Version : Python 3.8\n "
13
13
"Report-Msgid-Bugs-To : \n "
14
14
"POT-Creation-Date : 2020-05-05 12:54+0200\n "
15
- "PO-Revision-Date : YEAR-MO-DA HO:MI+ZONE\n "
16
- "Last-Translator : FULL NAME <EMAIL@ADDRESS>\n "
15
+ "PO-Revision-Date : 2020-07-25 18:56+0200\n "
17
16
"Language-Team : python-doc-es\n "
18
17
"MIME-Version : 1.0\n "
19
- "Content-Type : text/plain; charset=utf -8\n "
18
+ "Content-Type : text/plain; charset=UTF -8\n "
20
19
"Content-Transfer-Encoding : 8bit\n "
21
20
"Generated-By : Babel 2.8.0\n "
21
+ "Plural-Forms : nplurals=2; plural=(n != 1);\n "
22
+ "Last-Translator : Ignasi Fosch <natx@y10k.ws>\n "
23
+ "Language : es\n "
24
+ "X-Generator : Poedit 2.3.1\n "
22
25
23
26
#: ../Doc/library/tokenize.rst:2
24
27
msgid ":mod:`tokenize` --- Tokenizer for Python source"
25
- msgstr ""
28
+ msgstr ":mod:`tokenize` --- Tokenizador para código Python "
26
29
27
30
#: ../Doc/library/tokenize.rst:10
28
31
msgid "**Source code:** :source:`Lib/tokenize.py`"
29
- msgstr ""
32
+ msgstr "**Código fuente:** :source:`Lib/tokenize.py` "
30
33
31
34
#: ../Doc/library/tokenize.rst:14
32
35
msgid ""
@@ -35,6 +38,10 @@ msgid ""
35
38
"tokens as well, making it useful for implementing \" pretty-printers\" , "
36
39
"including colorizers for on-screen displays."
37
40
msgstr ""
41
+ "El módulo :mod:`tokenize` provee un analizador léxico para código fuente "
42
+ "Python, implementado en Python. Este analizador también devuelve comentarios "
43
+ "como *tokens*, siendo útil para implementar *\" pretty-printers\" *, como "
44
+ "*colorizers* para impresiones en pantalla."
38
45
39
46
#: ../Doc/library/tokenize.rst:19
40
47
msgid ""
@@ -44,14 +51,19 @@ msgid ""
44
51
"checking the ``exact_type`` property on the :term:`named tuple` returned "
45
52
"from :func:`tokenize.tokenize`."
46
53
msgstr ""
54
+ "Para simplificar el manejo de flujos de *tokens*, todos los *tokens* :ref:"
55
+ "`operator <operators>` y :ref:`delimiter <delimiters>` y :data:`Ellipsis` se "
56
+ "devuelve usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
57
+ "determinar usando la propiedad ``exact_type`` en la :term:`named tuple` "
58
+ "devuelta por :func:`tokenize.tokenize`."
47
59
48
60
#: ../Doc/library/tokenize.rst:26
49
61
msgid "Tokenizing Input"
50
- msgstr ""
62
+ msgstr "Convirtiendo la entrada en *tokens* "
51
63
52
64
#: ../Doc/library/tokenize.rst:28
53
65
msgid "The primary entry point is a :term:`generator`:"
54
- msgstr ""
66
+ msgstr "El punto de entrada principal es un :term:`generador`: "
55
67
56
68
#: ../Doc/library/tokenize.rst:32
57
69
msgid ""
@@ -60,6 +72,10 @@ msgid ""
60
72
"IOBase.readline` method of file objects. Each call to the function should "
61
73
"return one line of input as bytes."
62
74
msgstr ""
75
+ "El generador :func:`.tokenize` requiere un argumento, *readline*, que debe "
76
+ "ser un objeto invocable que provee la misma interfaz que el método :meth:`io."
77
+ "IOBase.readline` de los objetos *file*. Cada llamada a la función debe "
78
+ "devolver una línea de entrada como bytes."
63
79
64
80
#: ../Doc/library/tokenize.rst:37
65
81
msgid ""
@@ -71,6 +87,14 @@ msgid ""
71
87
"is the *physical* line. The 5 tuple is returned as a :term:`named tuple` "
72
88
"with the field names: ``type string start end line``."
73
89
msgstr ""
90
+ "El generador produce una tupla con los siguientes 5 miembros: El tipo de "
91
+ "*token*, la cadena del *token*, una tupla ``(srow, scol)`` de enteros "
92
+ "especificando la fila y columna donde el *token* empieza en el código, una "
93
+ "``(erow, ecol)`` de enteros especificando la fila y columna donde el *token* "
94
+ "acaba en el código, y la línea en la que se encontró el *token*. La línea "
95
+ "pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
96
+ "devuelve como una :term:`named tuple` con los campos: ``type string start "
97
+ "end line``."
74
98
75
99
#: ../Doc/library/tokenize.rst:46
76
100
msgid ""
@@ -79,57 +103,77 @@ msgid ""
79
103
"tokens. For all other token types ``exact_type`` equals the named tuple "
80
104
"``type`` field."
81
105
msgstr ""
106
+ "La :term:`named tuple` devuelta tiene una propiedad adicional llamada "
107
+ "``exact_type`` que contiene el tipo de operador exacto para *tokens* :data:"
108
+ "`~token.OP`. Para todos los otros tipos de *token*, ``exact_type`` es el "
109
+ "valor del campo ``type`` de la tupla con su respectivo nombre."
82
110
83
111
#: ../Doc/library/tokenize.rst:51
84
112
msgid "Added support for named tuples."
85
- msgstr ""
113
+ msgstr "Añadido soporte para tuplas con nombre. "
86
114
87
115
#: ../Doc/library/tokenize.rst:54
88
116
msgid "Added support for ``exact_type``."
89
- msgstr ""
117
+ msgstr "Añadido soporte para ``exact_type``. "
90
118
91
119
#: ../Doc/library/tokenize.rst:57
92
120
msgid ""
93
121
":func:`.tokenize` determines the source encoding of the file by looking for "
94
122
"a UTF-8 BOM or encoding cookie, according to :pep:`263`."
95
123
msgstr ""
124
+ ":func:`tokenize` determina la codificación del fichero buscando una marca "
125
+ "BOM UTF-8 o una *cookie* de codificación, de acuerdo con :pep:`263`."
96
126
97
127
#: ../Doc/library/tokenize.rst:62
98
128
msgid "Tokenize a source reading unicode strings instead of bytes."
99
129
msgstr ""
130
+ "Convertir a *tokens* una fuente leyendo cadenas unicode en lugar de bytes."
100
131
101
132
#: ../Doc/library/tokenize.rst:64
102
133
msgid ""
103
134
"Like :func:`.tokenize`, the *readline* argument is a callable returning a "
104
135
"single line of input. However, :func:`generate_tokens` expects *readline* to "
105
136
"return a str object rather than bytes."
106
137
msgstr ""
138
+ "Como :func:`.tokenize`, el argumento *readline* es un invocable que devuelve "
139
+ "una sola línea de entrada. Sin embargo, :func:`generate_tokens` espera que "
140
+ "*readline* devuelva un objeto *str* en lugar de *bytes*."
107
141
108
142
#: ../Doc/library/tokenize.rst:68
109
143
msgid ""
110
144
"The result is an iterator yielding named tuples, exactly like :func:`."
111
145
"tokenize`. It does not yield an :data:`~token.ENCODING` token."
112
146
msgstr ""
147
+ "El resultado es un iterador que produce tuplas con nombre, exactamente como :"
148
+ "func:`.tokenize`. No produce un *token* :data:`~token.ENCODING`."
113
149
114
150
#: ../Doc/library/tokenize.rst:71
115
151
msgid ""
116
152
"All constants from the :mod:`token` module are also exported from :mod:"
117
153
"`tokenize`."
118
154
msgstr ""
155
+ "Todas las constantes del módulo :mod:`token` se exportan también desde :mod:"
156
+ "`tokenize`."
119
157
120
158
#: ../Doc/library/tokenize.rst:74
121
159
msgid ""
122
160
"Another function is provided to reverse the tokenization process. This is "
123
161
"useful for creating tools that tokenize a script, modify the token stream, "
124
162
"and write back the modified script."
125
163
msgstr ""
164
+ "Otra función se encarga de invertir el proceso de conversión. Esto es útil "
165
+ "para crear herramientas que convierten a *tokens* un *script*, modificar el "
166
+ "flujo de *token*, y escribir el *script* modificado."
126
167
127
168
#: ../Doc/library/tokenize.rst:81
128
169
msgid ""
129
170
"Converts tokens back into Python source code. The *iterable* must return "
130
171
"sequences with at least two elements, the token type and the token string. "
131
172
"Any additional sequence elements are ignored."
132
173
msgstr ""
174
+ "Convierte los *tokens* de vuelta en código fuente Python. El *iterable* debe "
175
+ "devolver secuencias con al menos dos elementos, el tipo de *token* y la "
176
+ "cadena del *token*. Cualquier otro elemento de la secuencia es ignorado."
133
177
134
178
#: ../Doc/library/tokenize.rst:85
135
179
msgid ""
@@ -139,32 +183,50 @@ msgid ""
139
183
"token type and token string as the spacing between tokens (column positions) "
140
184
"may change."
141
185
msgstr ""
186
+ "El *script* reconstruido se devuelve como una cadena simple. El resultado "
187
+ "está garantizado de que se convierte en *tokens* de vuelta a la misma "
188
+ "entrada, de modo que la conversión no tiene pérdida y que las conversiones "
189
+ "de ida y de vuelta están aseguradas. La garantía aplica sólo al tipo y la "
190
+ "cadena del *token*, ya que el espaciado entre *tokens* (posiciones de "
191
+ "columna) pueden variar."
142
192
143
193
#: ../Doc/library/tokenize.rst:91
144
194
msgid ""
145
195
"It returns bytes, encoded using the :data:`~token.ENCODING` token, which is "
146
196
"the first token sequence output by :func:`.tokenize`. If there is no "
147
197
"encoding token in the input, it returns a str instead."
148
198
msgstr ""
199
+ "Devuelve bytes, codificados usando el *token* :data:`~token.ENCODING`, que "
200
+ "es el primer elemento de la secuencia devuelta por :func:`.tokenize`. Si no "
201
+ "hay un *token* de codificación en la entrada, devuelve una cadena."
149
202
150
203
#: ../Doc/library/tokenize.rst:96
151
204
msgid ""
152
205
":func:`.tokenize` needs to detect the encoding of source files it tokenizes. "
153
206
"The function it uses to do this is available:"
154
207
msgstr ""
208
+ ":func:`.tokenize` necesita detectar la codificación de los ficheros fuente "
209
+ "que convierte a *tokens*. La función que utiliza para hacer esto está "
210
+ "disponible como:"
155
211
156
212
#: ../Doc/library/tokenize.rst:101
157
213
msgid ""
158
214
"The :func:`detect_encoding` function is used to detect the encoding that "
159
215
"should be used to decode a Python source file. It requires one argument, "
160
216
"readline, in the same way as the :func:`.tokenize` generator."
161
217
msgstr ""
218
+ "La función :func:`detect_encoding` se usa para detectar la codificación que "
219
+ "debería usarse al leer un fichero fuente Python. Requiere un argumento, "
220
+ "*readline*, del mismo modo que el generador :func:`.tokenize`."
162
221
163
222
#: ../Doc/library/tokenize.rst:105
164
223
msgid ""
165
224
"It will call readline a maximum of twice, and return the encoding used (as a "
166
225
"string) and a list of any lines (not decoded from bytes) it has read in."
167
226
msgstr ""
227
+ "Llamará a *readline* un máximo de dos veces, devolviendo la codificación "
228
+ "usada, como cadena, y una lista del resto de líneas leídas, no "
229
+ "descodificadas de *bytes*."
168
230
169
231
#: ../Doc/library/tokenize.rst:109
170
232
msgid ""
@@ -173,83 +235,103 @@ msgid ""
173
235
"but disagree, a :exc:`SyntaxError` will be raised. Note that if the BOM is "
174
236
"found, ``'utf-8-sig'`` will be returned as an encoding."
175
237
msgstr ""
238
+ "Detecta la codificación a partir de la presencia de una marca BOM UTF-8 o "
239
+ "una *cookie* de codificación, como se especifica en :pep:`263`. Si ambas "
240
+ "están presentes pero en desacuerdo, se lanzará un :exc:`SyntaxError`. "
241
+ "Resaltar que si se encuentra la marca BOM, se devolverá ``'utf-8-sig'`` como "
242
+ "codificación."
176
243
177
244
#: ../Doc/library/tokenize.rst:114
178
245
msgid ""
179
246
"If no encoding is specified, then the default of ``'utf-8'`` will be "
180
247
"returned."
181
248
msgstr ""
249
+ "Si no se especifica una codificación, por defecto se devolverá ``'utf-8'``."
182
250
183
251
#: ../Doc/library/tokenize.rst:117
184
252
msgid ""
185
253
"Use :func:`.open` to open Python source files: it uses :func:"
186
254
"`detect_encoding` to detect the file encoding."
187
255
msgstr ""
256
+ "Usa :func:`.open` para abrir ficheros fuente Python: Ésta utiliza :func:"
257
+ "`detect_encoding` para detectar la codificación del fichero."
188
258
189
259
#: ../Doc/library/tokenize.rst:123
190
260
msgid ""
191
261
"Open a file in read only mode using the encoding detected by :func:"
192
262
"`detect_encoding`."
193
263
msgstr ""
264
+ "Abrir un fichero en modo sólo lectura usando la codificación detectada por :"
265
+ "func:`detect_encoding`."
194
266
195
267
#: ../Doc/library/tokenize.rst:130
196
268
msgid ""
197
269
"Raised when either a docstring or expression that may be split over several "
198
270
"lines is not completed anywhere in the file, for example::"
199
271
msgstr ""
272
+ "Lanzada cuando una expresión o *docstring* que puede separarse en más líneas "
273
+ "no está completa en el fichero, por ejemplo::"
200
274
201
275
#: ../Doc/library/tokenize.rst:136
202
276
msgid "or::"
203
- msgstr ""
277
+ msgstr "o:: "
204
278
205
279
#: ../Doc/library/tokenize.rst:142
206
280
msgid ""
207
281
"Note that unclosed single-quoted strings do not cause an error to be raised. "
208
282
"They are tokenized as :data:`~token.ERRORTOKEN`, followed by the "
209
283
"tokenization of their contents."
210
284
msgstr ""
285
+ "Destacar que cadenas con comillas simples sin finalizar no lanzan un error. "
286
+ "Se convertirán en *tokens* como :data:`~token.ERRORTOKEN`, seguido de la "
287
+ "conversión de su contenido."
211
288
212
289
#: ../Doc/library/tokenize.rst:150
213
290
msgid "Command-Line Usage"
214
- msgstr ""
291
+ msgstr "Uso como línea de comandos "
215
292
216
293
#: ../Doc/library/tokenize.rst:154
217
294
msgid ""
218
295
"The :mod:`tokenize` module can be executed as a script from the command "
219
296
"line. It is as simple as:"
220
297
msgstr ""
298
+ "El módulo :mod:`tokenize` se puede ejecutar como *script* desde la línea de "
299
+ "comandos. Es tan simple como:"
221
300
222
301
#: ../Doc/library/tokenize.rst:161
223
302
msgid "The following options are accepted:"
224
- msgstr ""
303
+ msgstr "Se aceptan las siguientes opciones: "
225
304
226
305
#: ../Doc/library/tokenize.rst:167
227
306
msgid "show this help message and exit"
228
- msgstr ""
307
+ msgstr "muestra el mensaje de ayuda y sale "
229
308
230
309
#: ../Doc/library/tokenize.rst:171
231
310
msgid "display token names using the exact type"
232
- msgstr ""
311
+ msgstr "muestra los nombres de token usando el tipo exacto "
233
312
234
313
#: ../Doc/library/tokenize.rst:173
235
314
msgid ""
236
315
"If :file:`filename.py` is specified its contents are tokenized to stdout. "
237
316
"Otherwise, tokenization is performed on stdin."
238
317
msgstr ""
318
+ "Si se especifica :file:`filename.py`, se convierte su contenido a *tokens* "
319
+ "por la salida estándar. En otro caso, se convierte la entrada estándar."
239
320
240
321
#: ../Doc/library/tokenize.rst:177
241
322
msgid "Examples"
242
- msgstr ""
323
+ msgstr "Ejemplos "
243
324
244
325
#: ../Doc/library/tokenize.rst:179
245
326
msgid ""
246
327
"Example of a script rewriter that transforms float literals into Decimal "
247
328
"objects::"
248
329
msgstr ""
330
+ "Ejemplo de un *script* que transforma literales *float* en objetos Decimal::"
249
331
250
332
#: ../Doc/library/tokenize.rst:221
251
333
msgid "Example of tokenizing from the command line. The script::"
252
- msgstr ""
334
+ msgstr "Ejemplo de conversión desde la línea de comandos. El *script*:: "
253
335
254
336
#: ../Doc/library/tokenize.rst:228
255
337
msgid ""
@@ -258,18 +340,26 @@ msgid ""
258
340
"column is the name of the token, and the final column is the value of the "
259
341
"token (if any)"
260
342
msgstr ""
343
+ "se convertirá en la salida siguiente, donde la primera columna es el rango "
344
+ "de coordenadas línea/columna donde se encuentra el *token*, la segunda "
345
+ "columna es el nombre del *token*, y la última columna es el valor del "
346
+ "*token*, si lo hay"
261
347
262
348
#: ../Doc/library/tokenize.rst:256
263
349
msgid ""
264
350
"The exact token type names can be displayed using the :option:`-e` option:"
265
351
msgstr ""
352
+ "Los nombres de tipos de *token* exactos se pueden mostrar con la opción :"
353
+ "option:`-e`:"
266
354
267
355
#: ../Doc/library/tokenize.rst:282
268
356
msgid ""
269
357
"Example of tokenizing a file programmatically, reading unicode strings "
270
358
"instead of bytes with :func:`generate_tokens`::"
271
359
msgstr ""
360
+ "Ejemplo de conversión de un fichero a *tokens* programáticamente, leyendo "
361
+ "cadenas unicode en lugar de *bytes* con :func:`generate_tokens`::"
272
362
273
363
#: ../Doc/library/tokenize.rst:292
274
364
msgid "Or reading bytes directly with :func:`.tokenize`::"
275
- msgstr ""
365
+ msgstr "O leyendo *bytes* directamente con :func:`.tokenize`:: "
0 commit comments