@@ -12,21 +12,24 @@ msgstr ""
1212"Project-Id-Version : Python 3.8\n "
1313"Report-Msgid-Bugs-To : \n "
1414"POT-Creation-Date : 2020-05-05 12:54+0200\n "
15- "PO-Revision-Date : YEAR-MO-DA HO:MI+ZONE\n "
16- "Last-Translator : FULL NAME <EMAIL@ADDRESS>\n "
15+ "PO-Revision-Date : 2020-07-25 18:56+0200\n "
1716"Language-Team : python-doc-es\n "
1817"MIME-Version : 1.0\n "
19- "Content-Type : text/plain; charset=utf -8\n "
18+ "Content-Type : text/plain; charset=UTF -8\n "
2019"Content-Transfer-Encoding : 8bit\n "
2120"Generated-By : Babel 2.8.0\n "
21+ "Plural-Forms : nplurals=2; plural=(n != 1);\n "
22+ "Last-Translator : Ignasi Fosch <natx@y10k.ws>\n "
23+ "Language : es\n "
24+ "X-Generator : Poedit 2.3.1\n "
2225
2326#: ../Doc/library/tokenize.rst:2
2427msgid ":mod:`tokenize` --- Tokenizer for Python source"
25- msgstr ""
28+ msgstr ":mod:`tokenize` --- Tokenizador para código Python "
2629
2730#: ../Doc/library/tokenize.rst:10
2831msgid "**Source code:** :source:`Lib/tokenize.py`"
29- msgstr ""
32+ msgstr "**Código fuente:** :source:`Lib/tokenize.py` "
3033
3134#: ../Doc/library/tokenize.rst:14
3235msgid ""
@@ -35,6 +38,10 @@ msgid ""
3538"tokens as well, making it useful for implementing \" pretty-printers\" , "
3639"including colorizers for on-screen displays."
3740msgstr ""
41+ "El módulo :mod:`tokenize` provee un analizador léxico para código fuente "
42+ "Python, implementado en Python. Este analizador también devuelve comentarios "
43+ "como *tokens*, siendo útil para implementar *\" pretty-printers\" *, como "
44+ "*colorizers* para impresiones en pantalla."
3845
3946#: ../Doc/library/tokenize.rst:19
4047msgid ""
@@ -44,14 +51,19 @@ msgid ""
4451"checking the ``exact_type`` property on the :term:`named tuple` returned "
4552"from :func:`tokenize.tokenize`."
4653msgstr ""
54+ "Para simplificar el manejo de flujos de *tokens*, todos los *tokens* :ref:"
55+ "`operator <operators>` y :ref:`delimiter <delimiters>` y :data:`Ellipsis` se "
56+ "devuelve usando el tipo genérico :data:`~token.OP`. El tipo exacto se puede "
57+ "determinar usando la propiedad ``exact_type`` en la :term:`named tuple` "
58+ "devuelta por :func:`tokenize.tokenize`."
4759
4860#: ../Doc/library/tokenize.rst:26
4961msgid "Tokenizing Input"
50- msgstr ""
62+ msgstr "Convirtiendo la entrada en *tokens* "
5163
5264#: ../Doc/library/tokenize.rst:28
5365msgid "The primary entry point is a :term:`generator`:"
54- msgstr ""
66+ msgstr "El punto de entrada principal es un :term:`generador`: "
5567
5668#: ../Doc/library/tokenize.rst:32
5769msgid ""
@@ -60,6 +72,10 @@ msgid ""
6072"IOBase.readline` method of file objects. Each call to the function should "
6173"return one line of input as bytes."
6274msgstr ""
75+ "El generador :func:`.tokenize` requiere un argumento, *readline*, que debe "
76+ "ser un objeto invocable que provee la misma interfaz que el método :meth:`io."
77+ "IOBase.readline` de los objetos *file*. Cada llamada a la función debe "
78+ "devolver una línea de entrada como bytes."
6379
6480#: ../Doc/library/tokenize.rst:37
6581msgid ""
@@ -71,6 +87,14 @@ msgid ""
7187"is the *physical* line. The 5 tuple is returned as a :term:`named tuple` "
7288"with the field names: ``type string start end line``."
7389msgstr ""
90+ "El generador produce una tupla con los siguientes 5 miembros: El tipo de "
91+ "*token*, la cadena del *token*, una tupla ``(srow, scol)`` de enteros "
92+ "especificando la fila y columna donde el *token* empieza en el código, una "
93+ "``(erow, ecol)`` de enteros especificando la fila y columna donde el *token* "
94+ "acaba en el código, y la línea en la que se encontró el *token*. La línea "
95+ "pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
96+ "devuelve como una :term:`named tuple` con los campos: ``type string start "
97+ "end line``."
7498
7599#: ../Doc/library/tokenize.rst:46
76100msgid ""
@@ -79,57 +103,77 @@ msgid ""
79103"tokens. For all other token types ``exact_type`` equals the named tuple "
80104"``type`` field."
81105msgstr ""
106+ "La :term:`named tuple` devuelta tiene una propiedad adicional llamada "
107+ "``exact_type`` que contiene el tipo de operador exacto para *tokens* :data:"
108+ "`~token.OP`. Para todos los otros tipos de *token*, ``exact_type`` es el "
109+ "valor del campo ``type`` de la tupla con su respectivo nombre."
82110
83111#: ../Doc/library/tokenize.rst:51
84112msgid "Added support for named tuples."
85- msgstr ""
113+ msgstr "Añadido soporte para tuplas con nombre. "
86114
87115#: ../Doc/library/tokenize.rst:54
88116msgid "Added support for ``exact_type``."
89- msgstr ""
117+ msgstr "Añadido soporte para ``exact_type``. "
90118
91119#: ../Doc/library/tokenize.rst:57
92120msgid ""
93121":func:`.tokenize` determines the source encoding of the file by looking for "
94122"a UTF-8 BOM or encoding cookie, according to :pep:`263`."
95123msgstr ""
124+ ":func:`tokenize` determina la codificación del fichero buscando una marca "
125+ "BOM UTF-8 o una *cookie* de codificación, de acuerdo con :pep:`263`."
96126
97127#: ../Doc/library/tokenize.rst:62
98128msgid "Tokenize a source reading unicode strings instead of bytes."
99129msgstr ""
130+ "Convertir a *tokens* una fuente leyendo cadenas unicode en lugar de bytes."
100131
101132#: ../Doc/library/tokenize.rst:64
102133msgid ""
103134"Like :func:`.tokenize`, the *readline* argument is a callable returning a "
104135"single line of input. However, :func:`generate_tokens` expects *readline* to "
105136"return a str object rather than bytes."
106137msgstr ""
138+ "Como :func:`.tokenize`, el argumento *readline* es un invocable que devuelve "
139+ "una sola línea de entrada. Sin embargo, :func:`generate_tokens` espera que "
140+ "*readline* devuelva un objeto *str* en lugar de *bytes*."
107141
108142#: ../Doc/library/tokenize.rst:68
109143msgid ""
110144"The result is an iterator yielding named tuples, exactly like :func:`."
111145"tokenize`. It does not yield an :data:`~token.ENCODING` token."
112146msgstr ""
147+ "El resultado es un iterador que produce tuplas con nombre, exactamente como :"
148+ "func:`.tokenize`. No produce un *token* :data:`~token.ENCODING`."
113149
114150#: ../Doc/library/tokenize.rst:71
115151msgid ""
116152"All constants from the :mod:`token` module are also exported from :mod:"
117153"`tokenize`."
118154msgstr ""
155+ "Todas las constantes del módulo :mod:`token` se exportan también desde :mod:"
156+ "`tokenize`."
119157
120158#: ../Doc/library/tokenize.rst:74
121159msgid ""
122160"Another function is provided to reverse the tokenization process. This is "
123161"useful for creating tools that tokenize a script, modify the token stream, "
124162"and write back the modified script."
125163msgstr ""
164+ "Otra función se encarga de invertir el proceso de conversión. Esto es útil "
165+ "para crear herramientas que convierten a *tokens* un *script*, modificar el "
166+ "flujo de *token*, y escribir el *script* modificado."
126167
127168#: ../Doc/library/tokenize.rst:81
128169msgid ""
129170"Converts tokens back into Python source code. The *iterable* must return "
130171"sequences with at least two elements, the token type and the token string. "
131172"Any additional sequence elements are ignored."
132173msgstr ""
174+ "Convierte los *tokens* de vuelta en código fuente Python. El *iterable* debe "
175+ "devolver secuencias con al menos dos elementos, el tipo de *token* y la "
176+ "cadena del *token*. Cualquier otro elemento de la secuencia es ignorado."
133177
134178#: ../Doc/library/tokenize.rst:85
135179msgid ""
@@ -139,32 +183,50 @@ msgid ""
139183"token type and token string as the spacing between tokens (column positions) "
140184"may change."
141185msgstr ""
186+ "El *script* reconstruido se devuelve como una cadena simple. El resultado "
187+ "está garantizado de que se convierte en *tokens* de vuelta a la misma "
188+ "entrada, de modo que la conversión no tiene pérdida y que las conversiones "
189+ "de ida y de vuelta están aseguradas. La garantía aplica sólo al tipo y la "
190+ "cadena del *token*, ya que el espaciado entre *tokens* (posiciones de "
191+ "columna) pueden variar."
142192
143193#: ../Doc/library/tokenize.rst:91
144194msgid ""
145195"It returns bytes, encoded using the :data:`~token.ENCODING` token, which is "
146196"the first token sequence output by :func:`.tokenize`. If there is no "
147197"encoding token in the input, it returns a str instead."
148198msgstr ""
199+ "Devuelve bytes, codificados usando el *token* :data:`~token.ENCODING`, que "
200+ "es el primer elemento de la secuencia devuelta por :func:`.tokenize`. Si no "
201+ "hay un *token* de codificación en la entrada, devuelve una cadena."
149202
150203#: ../Doc/library/tokenize.rst:96
151204msgid ""
152205":func:`.tokenize` needs to detect the encoding of source files it tokenizes. "
153206"The function it uses to do this is available:"
154207msgstr ""
208+ ":func:`.tokenize` necesita detectar la codificación de los ficheros fuente "
209+ "que convierte a *tokens*. La función que utiliza para hacer esto está "
210+ "disponible como:"
155211
156212#: ../Doc/library/tokenize.rst:101
157213msgid ""
158214"The :func:`detect_encoding` function is used to detect the encoding that "
159215"should be used to decode a Python source file. It requires one argument, "
160216"readline, in the same way as the :func:`.tokenize` generator."
161217msgstr ""
218+ "La función :func:`detect_encoding` se usa para detectar la codificación que "
219+ "debería usarse al leer un fichero fuente Python. Requiere un argumento, "
220+ "*readline*, del mismo modo que el generador :func:`.tokenize`."
162221
163222#: ../Doc/library/tokenize.rst:105
164223msgid ""
165224"It will call readline a maximum of twice, and return the encoding used (as a "
166225"string) and a list of any lines (not decoded from bytes) it has read in."
167226msgstr ""
227+ "Llamará a *readline* un máximo de dos veces, devolviendo la codificación "
228+ "usada, como cadena, y una lista del resto de líneas leídas, no "
229+ "descodificadas de *bytes*."
168230
169231#: ../Doc/library/tokenize.rst:109
170232msgid ""
@@ -173,83 +235,103 @@ msgid ""
173235"but disagree, a :exc:`SyntaxError` will be raised. Note that if the BOM is "
174236"found, ``'utf-8-sig'`` will be returned as an encoding."
175237msgstr ""
238+ "Detecta la codificación a partir de la presencia de una marca BOM UTF-8 o "
239+ "una *cookie* de codificación, como se especifica en :pep:`263`. Si ambas "
240+ "están presentes pero en desacuerdo, se lanzará un :exc:`SyntaxError`. "
241+ "Resaltar que si se encuentra la marca BOM, se devolverá ``'utf-8-sig'`` como "
242+ "codificación."
176243
177244#: ../Doc/library/tokenize.rst:114
178245msgid ""
179246"If no encoding is specified, then the default of ``'utf-8'`` will be "
180247"returned."
181248msgstr ""
249+ "Si no se especifica una codificación, por defecto se devolverá ``'utf-8'``."
182250
183251#: ../Doc/library/tokenize.rst:117
184252msgid ""
185253"Use :func:`.open` to open Python source files: it uses :func:"
186254"`detect_encoding` to detect the file encoding."
187255msgstr ""
256+ "Usa :func:`.open` para abrir ficheros fuente Python: Ésta utiliza :func:"
257+ "`detect_encoding` para detectar la codificación del fichero."
188258
189259#: ../Doc/library/tokenize.rst:123
190260msgid ""
191261"Open a file in read only mode using the encoding detected by :func:"
192262"`detect_encoding`."
193263msgstr ""
264+ "Abrir un fichero en modo sólo lectura usando la codificación detectada por :"
265+ "func:`detect_encoding`."
194266
195267#: ../Doc/library/tokenize.rst:130
196268msgid ""
197269"Raised when either a docstring or expression that may be split over several "
198270"lines is not completed anywhere in the file, for example::"
199271msgstr ""
272+ "Lanzada cuando una expresión o *docstring* que puede separarse en más líneas "
273+ "no está completa en el fichero, por ejemplo::"
200274
201275#: ../Doc/library/tokenize.rst:136
202276msgid "or::"
203- msgstr ""
277+ msgstr "o:: "
204278
205279#: ../Doc/library/tokenize.rst:142
206280msgid ""
207281"Note that unclosed single-quoted strings do not cause an error to be raised. "
208282"They are tokenized as :data:`~token.ERRORTOKEN`, followed by the "
209283"tokenization of their contents."
210284msgstr ""
285+ "Destacar que cadenas con comillas simples sin finalizar no lanzan un error. "
286+ "Se convertirán en *tokens* como :data:`~token.ERRORTOKEN`, seguido de la "
287+ "conversión de su contenido."
211288
212289#: ../Doc/library/tokenize.rst:150
213290msgid "Command-Line Usage"
214- msgstr ""
291+ msgstr "Uso como línea de comandos "
215292
216293#: ../Doc/library/tokenize.rst:154
217294msgid ""
218295"The :mod:`tokenize` module can be executed as a script from the command "
219296"line. It is as simple as:"
220297msgstr ""
298+ "El módulo :mod:`tokenize` se puede ejecutar como *script* desde la línea de "
299+ "comandos. Es tan simple como:"
221300
222301#: ../Doc/library/tokenize.rst:161
223302msgid "The following options are accepted:"
224- msgstr ""
303+ msgstr "Se aceptan las siguientes opciones: "
225304
226305#: ../Doc/library/tokenize.rst:167
227306msgid "show this help message and exit"
228- msgstr ""
307+ msgstr "muestra el mensaje de ayuda y sale "
229308
230309#: ../Doc/library/tokenize.rst:171
231310msgid "display token names using the exact type"
232- msgstr ""
311+ msgstr "muestra los nombres de token usando el tipo exacto "
233312
234313#: ../Doc/library/tokenize.rst:173
235314msgid ""
236315"If :file:`filename.py` is specified its contents are tokenized to stdout. "
237316"Otherwise, tokenization is performed on stdin."
238317msgstr ""
318+ "Si se especifica :file:`filename.py`, se convierte su contenido a *tokens* "
319+ "por la salida estándar. En otro caso, se convierte la entrada estándar."
239320
240321#: ../Doc/library/tokenize.rst:177
241322msgid "Examples"
242- msgstr ""
323+ msgstr "Ejemplos "
243324
244325#: ../Doc/library/tokenize.rst:179
245326msgid ""
246327"Example of a script rewriter that transforms float literals into Decimal "
247328"objects::"
248329msgstr ""
330+ "Ejemplo de un *script* que transforma literales *float* en objetos Decimal::"
249331
250332#: ../Doc/library/tokenize.rst:221
251333msgid "Example of tokenizing from the command line. The script::"
252- msgstr ""
334+ msgstr "Ejemplo de conversión desde la línea de comandos. El *script*:: "
253335
254336#: ../Doc/library/tokenize.rst:228
255337msgid ""
@@ -258,18 +340,26 @@ msgid ""
258340"column is the name of the token, and the final column is the value of the "
259341"token (if any)"
260342msgstr ""
343+ "se convertirá en la salida siguiente, donde la primera columna es el rango "
344+ "de coordenadas línea/columna donde se encuentra el *token*, la segunda "
345+ "columna es el nombre del *token*, y la última columna es el valor del "
346+ "*token*, si lo hay"
261347
262348#: ../Doc/library/tokenize.rst:256
263349msgid ""
264350"The exact token type names can be displayed using the :option:`-e` option:"
265351msgstr ""
352+ "Los nombres de tipos de *token* exactos se pueden mostrar con la opción :"
353+ "option:`-e`:"
266354
267355#: ../Doc/library/tokenize.rst:282
268356msgid ""
269357"Example of tokenizing a file programmatically, reading unicode strings "
270358"instead of bytes with :func:`generate_tokens`::"
271359msgstr ""
360+ "Ejemplo de conversión de un fichero a *tokens* programáticamente, leyendo "
361+ "cadenas unicode en lugar de *bytes* con :func:`generate_tokens`::"
272362
273363#: ../Doc/library/tokenize.rst:292
274364msgid "Or reading bytes directly with :func:`.tokenize`::"
275- msgstr ""
365+ msgstr "O leyendo *bytes* directamente con :func:`.tokenize`:: "
0 commit comments