Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.provenanceUniversidad de Buenos Aires. Facultad de Ciencias Económicas-
dc.creatorDe Giusti, Marisa Raquel-
dc.date2007-
dc.date.accessioned2019-06-19T20:38:34Z-
dc.date.available2019-06-19T20:38:34Z-
dc.date.issued2007-
dc.identifierhttp://digital.cic.gba.gob.ar/handle/11746/2504-
dc.identifier.urihttp://rodna.bn.gov.ar/jspui/handle/bnmm/327789-
dc.description- Digitalización y compresión: Convertir imágenes en entes discretos de forma eficiente. Guardar la imagen con la menor cantidad posible de información. Se realizaron numerosas pruebas combinando diferentes formatos tanto vectoriales como mapas de bits: PNG, JPEG, JPEG2000, GIF, TIFF, BMP y distintos algoritmos de compresión con y sin pérdida: RLE, LZW, CCITT, ZIP y LZ77. En el caso de JPEG2000 se evaluó el algoritmo de compresión basado en la transformada discreta de wavelets o DWT. Las pruebas permitieron encontrar las combinaciones más cercanas al óptimo de acuerdo a los diferentes tipos de materiales digitalizados, p.e. texto completo, paisajes, documentos degradados por el tiempo, entre otros y a las capacidades del hardware subyacente en relación a memoria, disco, procesador, velocidad de red, etc. Se incluye Informe técnico en Anexo 1. - Restauración: mejorar imágenes degradadas en lo relativo a rotación, traslación, escalación e interpolación de imágenes. Se continuó trabajando en base a componentes conexas mejorando la implementación algorítmica: mayor velocidad en la ejecución y más información relevante. Las mejoras permitieron nuevos usos para la herramienta: detección del ángulo de inclinación del documento digitalizado (componentes conexas con código de cadenas derivados de esta implementación usados en un algoritmo recursivo) y posterior corrección de la inclinación utilizando un algoritmo de rotación basado en una transformada afín y conservando el centro de la imagen. Se realizó asimismo la eliminación de puntos aleatorios y de bordes negros. Se realizó la automatización completa y controlada de todo el proceso de limpieza organizada en un “pipeline”. Los resultados se exponen en 7.3.4. -. Recuperación: Se investigaron las posibilidades que ofrece el vector de características en cuanto a clasificación de objetos en imágenes, los aportes que los códigos de cadenas podían generar en estas técnicas y finalmente las ventanas de muestreo basadas en filtros gaussianos, técnicas basadas en la curvatura normalizada y coeficientes de tangentes firmados. A partir de la implementación, las muestras permitieron determinar grupos de características dependientes de la rotación, traslación y escala como también invariantes respecto de las distorsiones geométricas mencionadas. La implementación sobre el caso de texto manuscrito digitalizado permitió separar renglones, palabras y realizar la preclasificación de dichas palabras. Los resultados se exponen en 7.1.1 y en 13.5. - Biblioteca digital: Almacenaje y organización de importantes volúmenes de datos. Se realizaron pruebas sobre distintos motores de bases de datos: XML nativas eXist, Xindice, la base de datos embebida Berkeley DBXML y el motor de indexación de texto Apache Lucene junto al servidor de búsquedas Apache Solr sobre el mismo. Las pruebas efectuadas sobre eXist indicaron la imposibilidad de manejar eficientemente grandes volúmenes de información, sumado a la inestabilidad causada por las permanentes corrupciones de la estructura de base de datos subyacente. Asimismo, se vio que Xindice definitivamente no esta diseñada para volúmenes elevados de información, no respeta los estándares y no es performante. La base de datos Berkeley dbxml resulto ser una de las alternativas mas prometedoras, pero debido a la existencia de un bug en el programa no se pudieron continuar las pruebas, las que se continuarán cuando se libere la nueva versión. Por ultimo, las experiencias obtenidas del desarrollo del Portal de Acceso a Información realizado para la UNNOBA expuestas en 8.1.1 sobre el motor de indexación de texto Apache Lucene, con Apache Solr como servidor de búsquedas fueron muy satisfactorias por su escalabilidad. - En relación a los compromisos internacionales: se comenzó y culminó el desarrollo de Celsius Network, que provee nuevas funcionalidades y permite la interconexión de todas las instancias de Celsius en una red virtual entre las partes.posibilitando la automatización de tareas de solicitud y envío. La nueva versión ya está disponible en el sitio http://celsius.prebi.unlp.edu.ar y en el Anexo 5 se incluyen los cursos dictados en LOJA. -. Modelación de sistemas: Se simuló el funcionamiento de las principales actividades del software CelsiusNT: Servicios de Búsqueda, Servicios de Provisión y Cálculo de Estadísticas Distribuidas, los resultados de la modelización se exponen en 8.1.3-
dc.formatapplication/pdf-
dc.format23 p.-
dc.languagespa-
dc.rightsinfo:eu-repo/semantics/openAccess-
dc.rightsAttribution 4.0 International (BY 4.0)-
dc.sourcereponame:CIC Digital (CICBA)-
dc.sourceinstname:Comisión de Investigaciones Científicas de la Provincia de Buenos Aires-
dc.sourceinstacron:CICBA-
dc.source.urihttp://digital.cic.gba.gob.ar/handle/11746/2504-
dc.subjectCiencias de la Computación e Información-
dc.subjectIngeniería, Tecnol. Qca., de los Alimentos, TIC's y Otras Tecnologías-
dc.titleInforme Científico de Investigador: De Giusti, Marisa Raquel (2006-2007)-
dc.typeinfo:eu-repo/semantics/report-
dc.typeinfo:eu-repo/semantics/publishedVersion-
dc.typeinfo:ar-repo/semantics/informeTecnico-
Aparece en las colecciones: Facultad de Ciencias Económicas. UBA

Ficheros en este ítem:
No hay ficheros asociados a este ítem.