summaryrefslogtreecommitdiffstats
path: root/tde-i18n-pt/docs/kdemultimedia/artsbuilder/future.docbook
diff options
context:
space:
mode:
authorTimothy Pearson <kb9vqf@pearsoncomputing.net>2011-11-21 02:23:03 -0600
committerTimothy Pearson <kb9vqf@pearsoncomputing.net>2011-11-21 02:23:03 -0600
commit9b58d35185905f8334142bf4988cb784e993aea7 (patch)
treef83ec30722464f6e4d23d6e7a40201d7ef5b6bf4 /tde-i18n-pt/docs/kdemultimedia/artsbuilder/future.docbook
downloadtde-i18n-9b58d35185905f8334142bf4988cb784e993aea7.tar.gz
tde-i18n-9b58d35185905f8334142bf4988cb784e993aea7.zip
Initial import of extracted KDE i18n tarballs
Diffstat (limited to 'tde-i18n-pt/docs/kdemultimedia/artsbuilder/future.docbook')
-rw-r--r--tde-i18n-pt/docs/kdemultimedia/artsbuilder/future.docbook401
1 files changed, 401 insertions, 0 deletions
diff --git a/tde-i18n-pt/docs/kdemultimedia/artsbuilder/future.docbook b/tde-i18n-pt/docs/kdemultimedia/artsbuilder/future.docbook
new file mode 100644
index 00000000000..96886e88f2c
--- /dev/null
+++ b/tde-i18n-pt/docs/kdemultimedia/artsbuilder/future.docbook
@@ -0,0 +1,401 @@
+<!-- <?xml version="1.0" ?>
+<!DOCTYPE chapter PUBLIC "-//KDE//DTD DocBook XML V4.1.2-Based Variant
+V1.1//EN" "dtd/kdex.dtd">
+To validate or process this file as a standalone document, uncomment
+this prolog. Be sure to comment it out again when you are done -->
+
+<chapter id="future-work">
+<title
+>Trabalho Futuro</title>
+
+<para
+>Esta secção descreve algum do trabalho do &arts; que se encontra em progresso. O desenvolvimento progride rapidamente, por isso esta informação poderá estar desactualizada. Você deverá ver o ficheiro da lista TODO e os arquivos das <link linkend="mailing-lists"
+>listas de correio</link
+> para ver quais as novas funcionalidades que estão planeadas. Sinta-se à vontade para se envolver no novo desenho e implementação. </para>
+
+<para
+>Este é um rascunho do documento que lhe tenta dar uma ideia geral de como as novas tecnologias serão integradas no &arts;. Nomeadamente, cobre o seguinte: </para>
+
+<itemizedlist>
+<listitem
+><para
+>Como é que as interfaces funcionam.</para
+></listitem>
+<listitem
+><para
+>Codificadores - a descodificação de sequências de MP3 ou WAV num formato em que possam ser usados como dados.</para
+></listitem>
+<listitem
+><para
+>Vídeo.</para
+></listitem>
+<listitem
+><para
+>Multi-tarefa.</para
+></listitem>
+<listitem
+><para
+>Sincronização.</para
+></listitem>
+<listitem
+><para
+>Expansão/máscara dinâmicas.</para
+></listitem>
+<listitem
+><para
+>Composição dinâmica.</para
+></listitem>
+<listitem
+><para
+>&GUI;</para
+></listitem>
+<listitem
+><para
+>&MIDI;</para
+></listitem>
+</itemizedlist>
+
+<para
+>Isto ainda é trabalho em progresso. Contudo, deverá ser a base se você quiser ver tecnologias novas no &arts;. Ele dever-lhe-á dar uma ideia geral de como esses problemas serão tratados. Contudo, sinta-se à vontade para corrigir tudo o que verá aqui. </para>
+
+<para
+>As coisas que serão utilizadas pela tecnologia do &arts; (por isso, coordenem os vossos esforços): </para>
+
+<itemizedlist>
+<listitem>
+<para
+><application
+>KPhone</application
+> (voz sobre <acronym
+>IP</acronym
+>) </para>
+</listitem>
+
+<listitem>
+<para
+>&noatun; (leitor de áudio / vídeo) </para>
+</listitem>
+
+<listitem>
+<para
+>&artscontrol; (programa de controlo do servidor de som, para os âmbitos) </para>
+</listitem>
+
+<listitem>
+<para
+><application
+>Brahms</application
+> (sequenciador de música) </para>
+</listitem>
+
+<listitem>
+<para
+><application
+>Kaiman</application
+> (leitor multimédia do &kde;2 - compatível com o kmedia2) </para>
+</listitem>
+
+<listitem>
+<para
+><application
+>mpglib</application
+>/<application
+>kmpg</application
+> (tecnologia de reprodução de áudio e vídeo <acronym
+>mpg</acronym
+>) </para>
+</listitem>
+
+<listitem>
+<para
+><application
+>SDL</application
+> (camada multimédia directa para jogos que ainda não começou, mas que se tornará óptima) </para>
+</listitem>
+
+<listitem>
+<para
+><application
+>electric ears</application
+> (o autor contactou-me - o estado é desconhecido) </para>
+</listitem>
+</itemizedlist>
+
+<sect1 id="interfaces-how">
+<title
+>Como Funcionam as Interfaces</title>
+
+<!-- I think this is now obsolete and documented elsewhere ? -->
+
+<para
+>As interfaces do &MCOP; são a base do conceito do &arts;. Elas são o equivalente transparente na rede das classes de C++. Sempre que possível, você deverá orientar o seu desenho para as interfaces. Estas consistem em quatro partes: </para>
+
+<itemizedlist>
+<listitem
+><para
+>Sequências síncronas</para
+></listitem>
+<listitem
+><para
+>Sequências assíncronas</para
+></listitem>
+<listitem
+><para
+>Métodos</para
+></listitem>
+<listitem
+><para
+>Atributos</para
+></listitem>
+</itemizedlist>
+
+<para
+>Estes poderão ser misturados da forma que você desejar. As novas tecnologias deverão ser definidas em termos de interfaces. Leia as secções sobre as sequências assíncronas e síncronas, assim como as interfaces do KMedia2, os quais são um bom exemplo sobre como as coisas funcionam </para>
+
+<para
+>As interfaces são especificadas no código <literal role="extension"
+>.idl</literal
+> e executadas através do compilador <command
+>mcopidl</command
+>. Você deriva da classe <classname
+><replaceable
+>NomeInterface</replaceable
+>_impl</classname
+> para as implementar e usa a função <function
+>REGISTER_IMPLEMENTATION(NomeInterface_impl)</function
+> para inserir as implementações do seu objecto no sistema de objectos do &MCOP;. </para>
+
+</sect1>
+
+<sect1 id="codecs">
+<title
+>Codificadores - Descodificação de Dados</title>
+
+<para
+>As interfaces do 'kmedia2' permitem-lhe ignorar que os ficheiros WAV, MP3 entre outros consistem em sequências de dados. Em alternativa, você só implementa os métodos para os tocar. </para>
+
+<para
+>Deste modo, você poderá criar uma rotina de carregamento de WAVE's de forma a que você possa tocar ficheiros WAVE (como PlayObject), mas mais ninguém pode usar o seu código. </para>
+
+<para
+>As sequências assíncronas seriam a alternativa. Você define uma interface que lhe permite passar os blocos de dados para dentro extrair blocos de dados para fora. Isto parece ser mesmo assim no &MCOP;: </para>
+
+<programlisting
+>interface Codificador {
+ entrada async byte stream indata;
+ saida async byte stream outdata;
+};
+</programlisting>
+
+
+<para
+>Claro que os codificadores também poderão fornecer parâmetros para emitir dados adicionais, tais como a informação do formato. </para>
+
+<programlisting
+>interface CodificadorAudioByte {
+ entrada async byte stream indata;
+ saida async byte stream outdata;
+ readonly attribute amostragem, bits, canais;
+};
+</programlisting>
+
+<para
+>Este <interfacename
+>CodificadorAudioByte</interfacename
+>, por exemplo, poder-se-ia ligar a um objecto <interfacename
+>ByteStreamToAudio</interfacename
+> para suportar áudio de vírgula flutuante. </para>
+
+<para
+>Claro, outros tipos de codificadores poderiam envolver directamente a emissão de dados de vídeo, como por exemplo </para>
+
+<programlisting
+>interface CodecVideo {
+ entrada async byte stream indata;
+ saida video stream outdata; /* nota: as sequências de vídeo ainda não existem */
+};
+</programlisting>
+
+<para
+>Muito provavelmente, o conceito de um codificador deveria se aplicado em vez da forma <quote
+>você sabe como tocar e eu não</quote
+> como, por exemplo, o <interfacename
+>WavPlayObject</interfacename
+> usa no momento. Contudo, alguém precisa de parar e fazer algumas experiências antes de API <acronym
+>API</acronym
+> ser finalizada. </para>
+
+</sect1>
+
+<sect1 id="video">
+<title
+>Vídeo</title>
+
+<para
+>A ideia é fornecer o vídeo como sequências assíncronas de algum tipo de dados nativo do &MCOP; que contenha imagens. Este tipo de dados ainda está por ser criado. Ao fazê-lo, os 'plugins' que lidem com as imagens de vídeo poderão ser ligados da mesma forma que os 'plugins' de áudio. </para>
+
+<para
+>Existem algumas coisas que são importantes não deixar de fora, nomeadamente: </para>
+
+<itemizedlist>
+<listitem>
+<para
+>Existem os espaços de cores <acronym
+>RGB</acronym
+> e <acronym
+>YUV</acronym
+>. </para>
+</listitem>
+<listitem>
+<para
+>O formato deverá ser associado de qualquer forma à sequência. </para>
+</listitem>
+<listitem>
+<para
+>A sincronização é importante. </para>
+</listitem>
+</itemizedlist>
+
+<para
+>A ideia é deixar possível a reimplementação da classe <classname
+>VideoFrame</classname
+> (ImagemVideo) para que possa armazenar a informação num segmento de memória partilhada. Ao fazê-lo, até a difusão de vídeo entre os diferentes processos seria possível sem muito trabalho. </para>
+
+<para
+>Contudo, a situação normal para o vídeo é que as coisas estão todas no mesmo processo, desde a descodificação até ao desenho. </para>
+
+<para
+>Foi feita uma implementação em protótipo de emissão de vídeo, a qual poderá obter <ulink url="http://space.twc.de/~stefan/kde/download/video-quickdraw.tar.gz"
+>aqui</ulink
+>. Isto teria de ser integrado no &MCOP; ao fim de algumas experiências. </para>
+
+<para
+>Uma componente de desenho deveria ser fornecida que suportasse o XMITSHM (com o <acronym
+>RGB</acronym
+> e o <acronym
+>YUV</acronym
+>); o Martin Vogt comunicou que estava a fazer algo do género. </para>
+
+</sect1>
+
+<sect1 id="threading">
+<title
+>Multitarefa</title>
+
+<para
+>De momento, o &MCOP; é todo ele monotarefa. Talvez para o vídeo não seja mais possível dar a volta a essa questão. Ok. Existem algumas coisas que têm de ser tratadas com cuidado: </para>
+
+
+<itemizedlist>
+<listitem
+><para
+>SmartWrappers - estes não são seguros em multitarefa devido à contagem de referências insegura, entre outras questões similares. </para>
+</listitem>
+<listitem>
+<para
+>'Dispatcher' / E/S - Também inseguros em multitarefa. </para>
+</listitem>
+</itemizedlist>
+
+<para
+>Contudo, o que é possível imaginar é tornar os módulos seguros em multitarefa para ambos os casos de sequências, síncronas e assíncronas. Desta forma - com um sistema de fluxo que suporte multitarefa, você poderá escalonar o fluxo do sinal por dois ou mais processadores. Isto iria ajudar bastante no áudio em sistemas multi-processador. </para>
+
+<para
+>Como iria funcionar: </para>
+
+
+<itemizedlist>
+<listitem>
+<para
+>O Sistema de Fluxo decide que módulos deverão calcular o quê - isto é: </para>
+ <itemizedlist>
+ <listitem
+><para
+>imagens de vídeo (com o método 'process_indata')</para
+></listitem>
+ <listitem
+><para
+>sequências de áudio síncronas ('calculateBlock')</para
+></listitem>
+ <listitem
+><para
+>outras sequências assíncronas, nomeadamente sequências de 'bytes'</para
+></listitem>
+ </itemizedlist>
+</listitem>
+<listitem>
+<para
+>Os módulos poderão calcular estas coisas em tarefas próprias. Para o áudio, faz sentido reutilizar as tarefas (&eg; aplicar em quatro tarefas por quatro processadores, independentemente de estarem a correr 100 módulos). Para a descompressão de vídeo e de 'bytes', poderá ser mais confortável ter uma implementação bloqueante numa tarefa própria, a qual está sincronizada com o resto do &MCOP; pelo sistema de fluxo. </para>
+</listitem>
+
+<listitem>
+<para
+>Os módulos não poderão usar a funcionalidade do &MCOP; (como as invocações remotas) durante a operação multitarefa. </para>
+</listitem>
+</itemizedlist>
+
+</sect1>
+
+<sect1 id="synchronization">
+<title
+>Sincronização</title>
+
+<para
+>O vídeo e o &MIDI; (e o áudio) poderão necessitar de sincronização. Basicamente, baseia-se em marcas temporais. A ideia que existe é anexar as marcas temporais às sequências síncronas, adicionando esse campo a cada pacote. Se você enviar duas imagens de vídeo, simplesmente crie dois pacotes (eles são grandes, de qualquer forma), por isso poderá ter duas marcas temporais diferentes. </para>
+
+<para
+>O áudio deverá ter implicitamente marcas temporais, dado que é síncrono. </para>
+
+</sect1>
+
+<sect1 id="dynamic-composition">
+<title
+>Composição Dinâmica</title>
+
+<para
+>Deveria ser possível dizer: um FX de efeito é composto a partir destes módulos mais simples. O FX deverá funcionar como um módulo de &MCOP; normal (veja a máscara), mas de facto consiste noutros módulos. </para>
+
+<para
+>Isto é necessário para o &arts-builder;. </para>
+
+</sect1>
+
+<sect1 id="gui">
+<title
+>&GUI;</title>
+
+<para
+>Todos os componentes &GUI; serão módulos do &MCOP;. Eles deverão ter atributos do tipo 'size' (tamanho), 'label' (texto), 'color' (cor), ... . Um construtor <acronym
+>RAD</acronym
+> (como o &arts-builder;) deverá ser capaz de os compor visualmente. </para>
+
+<para
+>A &GUI; deverá ser gravável, ao registar os atributos. </para>
+
+</sect1>
+
+<sect1 id="midi-stuff">
+<title
+>&MIDI;</title>
+
+<para
+>A funcionalidade do &MIDI; será implementada como sequências assíncronas. Existem duas opções, em que uma usa estruturas normais de &MCOP; para definir os tipos e o outro para introduzir ainda outros tipos personalizados. </para>
+
+<para
+>Pensa-se que as estruturas normais serão suficientes, isto é, algo do tipo: </para>
+
+<programlisting
+>struct EventoMidi {
+ byte b1,b2,b3;
+ sequence&lt;byte&gt; existe;
+}
+</programlisting>
+
+<para
+>As sequências assíncronas deverão suportar os tipos de sequências personalizados. </para>
+
+</sect1>
+
+</chapter>
+
+