@@ -11,7 +11,7 @@ msgstr ""
11
11
"Project-Id-Version : Python 3.8\n "
12
12
"Report-Msgid-Bugs-To : \n "
13
13
"POT-Creation-Date : 2020-05-05 12:54+0200\n "
14
- "PO-Revision-Date : 2020-07-05 00:39 +0200\n "
14
+ "PO-Revision-Date : 2020-07-05 01:32 +0200\n "
15
15
"Language-Team : python-doc-es\n "
16
16
"MIME-Version : 1.0\n "
17
17
"Content-Type : text/plain; charset=UTF-8\n "
@@ -409,7 +409,7 @@ msgstr ""
409
409
410
410
#: ../Doc/reference/lexical_analysis.rst:265
411
411
msgid "Other tokens"
412
- msgstr ""
412
+ msgstr "Otros tokens "
413
413
414
414
#: ../Doc/reference/lexical_analysis.rst:267
415
415
msgid ""
@@ -420,6 +420,14 @@ msgid ""
420
420
"comprises the longest possible string that forms a legal token, when read "
421
421
"from left to right."
422
422
msgstr ""
423
+ "Además de NEWLINE, INDENT y DEDENT, existen las siguientes categorías de "
424
+ "fichas: *identifiers* (identificadores), *keywords* (palabras clave), "
425
+ "*literals* (literales), *operators* (operadores) y *delimiters* "
426
+ "(delimitadores). Los caracteres de espacio en blanco (distintos de los "
427
+ "terminadores de línea, discutidos anteriormente) no son tokens, pero sirven "
428
+ "para delimitarlos. En los casos en que exista ambigüedad, un token comprende "
429
+ "la cadena más larga posible que forma un token legal cuando se lee de "
430
+ "izquierda a derecha."
423
431
424
432
#: ../Doc/reference/lexical_analysis.rst:277
425
433
msgid "Identifiers and keywords"
0 commit comments