66# Check https://github.com/PyCampES/python-docs-es/blob/3.8/TRANSLATORS to
77# get the list of volunteers
88#
9- #, fuzzy
109msgid ""
1110msgstr ""
1211"Project-Id-Version : Python 3.8\n "
1312"Report-Msgid-Bugs-To : \n "
1413"POT-Creation-Date : 2020-05-05 12:54+0200\n "
15- "PO-Revision-Date : 2020-07-25 19:08 +0200\n "
14+ "PO-Revision-Date : 2020-07-25 21:23 +0200\n "
1615"Language-Team : python-doc-es\n "
1716"MIME-Version : 1.0\n "
1817"Content-Type : text/plain; charset=UTF-8\n "
@@ -93,8 +92,8 @@ msgstr ""
9392"``(erow, ecol)`` de enteros especificando la fila y columna donde el token "
9493"acaba en el código, y la línea en la que se encontró el token. La línea "
9594"pasada (el último elemento de la tupla) es la línea *física*. La tupla se "
96- "retorna como una :term:`named tuple` con los campos: ``type string start "
97- "end line``."
95+ "retorna como una :term:`named tuple` con los campos: ``type string start end "
96+ "line``."
9897
9998#: ../Doc/library/tokenize.rst:46
10099msgid ""
@@ -105,8 +104,8 @@ msgid ""
105104msgstr ""
106105"La :term:`named tuple` retorna tiene una propiedad adicional llamada "
107106"``exact_type`` que contiene el tipo de operador exacto para tokens :data:"
108- "`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el "
109- "valor del campo ``type`` de la tupla con su respectivo nombre."
107+ "`~token.OP`. Para todos los otros tipos de token, ``exact_type`` es el valor "
108+ "del campo ``type`` de la tupla con su respectivo nombre."
110109
111110#: ../Doc/library/tokenize.rst:51
112111msgid "Added support for named tuples."
@@ -196,8 +195,8 @@ msgid ""
196195"the first token sequence output by :func:`.tokenize`. If there is no "
197196"encoding token in the input, it returns a str instead."
198197msgstr ""
199- "Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que "
200- "es el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
198+ "Retorna bytes, codificados usando el token :data:`~token.ENCODING`, que es "
199+ "el primer elemento de la secuencia retornada por :func:`.tokenize`. Si no "
201200"hay un token de codificación en la entrada, retorna una cadena."
202201
203202#: ../Doc/library/tokenize.rst:96
@@ -315,8 +314,8 @@ msgid ""
315314"If :file:`filename.py` is specified its contents are tokenized to stdout. "
316315"Otherwise, tokenization is performed on stdin."
317316msgstr ""
318- "Si se especifica :file:`filename.py`, se convierte su contenido a tokens "
319- "por la salida estándar. En otro caso, se convierte la entrada estándar."
317+ "Si se especifica :file:`filename.py`, se convierte su contenido a tokens por "
318+ "la salida estándar. En otro caso, se convierte la entrada estándar."
320319
321320#: ../Doc/library/tokenize.rst:177
322321msgid "Examples"
@@ -341,9 +340,8 @@ msgid ""
341340"token (if any)"
342341msgstr ""
343342"se convertirá en la salida siguiente, donde la primera columna es el rango "
344- "de coordenadas línea/columna donde se encuentra el token, la segunda "
345- "columna es el nombre del token, y la última columna es el valor del "
346- "token, si lo hay"
343+ "de coordenadas línea/columna donde se encuentra el token, la segunda columna "
344+ "es el nombre del token, y la última columna es el valor del token, si lo hay"
347345
348346#: ../Doc/library/tokenize.rst:256
349347msgid ""
@@ -357,8 +355,8 @@ msgid ""
357355"Example of tokenizing a file programmatically, reading unicode strings "
358356"instead of bytes with :func:`generate_tokens`::"
359357msgstr ""
360- "Ejemplo de tokenización de un fichero programáticamente, leyendo "
361- "cadenas unicode en lugar de *bytes* con :func:`generate_tokens`::"
358+ "Ejemplo de tokenización de un fichero programáticamente, leyendo cadenas "
359+ "unicode en lugar de *bytes* con :func:`generate_tokens`::"
362360
363361#: ../Doc/library/tokenize.rst:292
364362msgid "Or reading bytes directly with :func:`.tokenize`::"
0 commit comments