OSDN Git Service

Fix the bug of X.NodeAnime.
[pettanr/clientJs.git] / 0.6.x / js / 07_audio / 00_XAudio.js
index b12e679..60bc56e 100644 (file)
@@ -1,7 +1,7 @@
 \r
 /*\r
        WebAudio    : 1,\r
-       HTML5       : 2,\r
+       HTMLAudio   : 2,\r
        Flash       : 3,\r
        Silverlight : 4,\r
        Unity       : 5,\r
@@ -15,36 +15,46 @@ var X_Audio_BACKENDS     = []; // Array.<Hash>
 X_TEMP.onSystemReady.push(\r
        function(){\r
                var canPlay = X[ 'Audio' ][ 'canPlay' ] = {},\r
-                       i = X_Audio_BACKENDS.length;\r
+                       i = X_Audio_BACKENDS.length,\r
+                       be;\r
                for( ; i; ){\r
-                       X_Object_override( canPlay, X_Audio_BACKENDS[ --i ].canPlay );\r
+                       be = X_Audio_BACKENDS[ --i ];\r
+                       X_Object_override( canPlay, be.canPlay );\r
+                       X[ 'Audio' ][ be.backendName ] = be.backendID;\r
                };\r
        });\r
 \r
 /**\r
- * <p>複数のバックエンドから、与えられた音声を再生可能なものを見つけ、音声を再生します。\r
+ * <p>è¤\87æ\95°ã\81®ã\82ªã\83¼ã\83\87ã\82£ã\82ªã\83»ã\83\90ã\83\83ã\82¯ã\82¨ã\83³ã\83\89ã\81\8bã\82\89ã\80\81ä¸\8eã\81\88ã\82\89ã\82\8cã\81\9fé\9f³å£°ã\82\92å\86\8dç\94\9få\8f¯è\83½ã\81ªã\82\82ã\81®ã\82\92è¦\8bã\81¤ã\81\91ã\80\81é\9f³å£°ã\82\92å\86\8dç\94\9fã\81\97ã\81¾ã\81\99ã\80\82\r
  * <p>HTMLAudio の動作・機能がブラウザ毎にバラバラなのに業を煮やし、メソッドやイベントは独自に定義しています。\r
  * <h4>バックエンドの種類</h4>\r
- * <p>HTMLAudio, WebAudio, Silverlight\r
+ * <p>HTMLAudio, WebAudio, Silverlight, WMP\r
  * <h4>イベント</h4>\r
  * <dl>\r
- * <dt>X.Event.BACKEND_READY <dd>音声(src リスト)を再生可能なバックエンドが見つかった。\r
- * <dt>X.Event.BACKEND_NONE  <dd>音声を再生可能なバックエンドが見つからなかった。\r
- * <dt>X.Event.READY         <dd>再生可能、実際の状態は canplay から loadeddata まで様々、、、\r
- * <dt>X.Event.ERROR         <dd><ul>\r
+ * <dt>X.Event.BACKEND_READY   <dd>音声(src リスト)を再生可能なバックエンドが見つかった。\r
+ * <dt>X.Event.BACKEND_NONE    <dd>音声を再生可能なバックエンドが見つからなかった。Audio は kill されます。\r
+ * <dt>X.Event.MEDIA_CAN_TOUCH <dd>モバイル端末の制約で音声の再生またはロードに、タッチを必要とする場合、タッチイベント内で play を呼び出す準備が出来たことを通知する。\r
+ * <dt>X.Event.READY           <dd>再生可能、実際の状態は canplay から loadeddata まで様々、、、モバイル端末の場合、タッチして再生が開始された場合に\r
+ * <dt>X.Event.ERROR           <dd><ul>\r
  *   <li> 1 : ユーザーによってメディアの取得が中断された\r
  *   <li> 2 : ネットワークエラー\r
  *   <li> 3 : メディアのデコードエラー\r
  *   <li> 4 : メディアがサポートされていない\r
  * </ul>\r
- * <dt>X.Event.MEDIA_PLAYING <dd>再生中に1秒以下のタイミングで発生.currentTime が取れる?\r
- * <dt>X.Event.MEDIA_LOOP    <dd>ループ直前に発生、キャンセル可能\r
- * <dt>X.Event.MEDIA_LOOPED  <dd>ループ時に発生\r
- * <dt>X.Event.MEDIA_ENDED   <dd>再生位置の(音声の)最後についた\r
- * <dt>X.Event.MEDIA_PAUSED  <dd>ポーズした\r
- * <dt>X.Event.MEDIA_WAITING <dd>再生中に音声が待機状態に。間もなく X.Event.MEDIA_PLAYING に移行\r
- * <dt>X.Event.MEDIA_SEEKING <dd>シーク中に音声が待機状態に。間もなく X.Event.MEDIA_PLAYING に移行\r
+ * <dt>X.Event.MEDIA_PLAYING   <dd>再生中に1秒以下のタイミングで発生.currentTime が取れる?\r
+ * <dt>X.Event.MEDIA_LOOP      <dd>ループ直前に発生、キャンセル可能\r
+ * <dt>X.Event.MEDIA_LOOPED    <dd>ループ時に発生\r
+ * <dt>X.Event.MEDIA_ENDED     <dd>再生位置の(音声の)最後についた\r
+ * <dt>X.Event.MEDIA_PAUSED    <dd>ポーズした\r
+ * <dt>X.Event.MEDIA_WAITING   <dd>再生中に音声が待機状態に\r
+ * <dt>X.Event.MEDIA_SEEKING   <dd>シーク中に音声が待機状態に\r
  * </dl>\r
+ * <h4>ソースリストに与える url 文字列</h4>\r
+ * <p>ハッシュフラグメント以下にデータを書くことで、各オーディオバックエンドが再生可能性の判断にあたって参考にするデータを渡すことができます。\r
+ * <dl>\r
+ * <dt>CBR=1<dd>audio が固定ビットレートであることを示す。Android 用 Opera12- は可変ビットレートの mp3 を正しくシークできない。\r
+ * [ 'snd.mp3', 'snd.mp3#CBR=1' ] と指定すると、Android 用 Opera12- では CBR な mp3 が、他の環境ではよりファイルサイズの小さい VBR な mp3 が使用される。(未実装)\r
+ * <dt>ext=mp3<dd>パスに拡張子が含まれない場合、または上書き指定したい場合に指定する\r
  * \r
  * @alias X.Audio\r
  * @class 各種オーディオ機能をラップしインターフェイスを共通化する。\r
@@ -53,12 +63,11 @@ X_TEMP.onSystemReady.push(
  * @param {array|string} sourceList\r
  * @param {object=} opt_option\r
  * @example //\r
- * var audio = X.Audio( [ 'etc/special.mp3', 'etc/special.ogg', 'etc/special.wav' ] )\r
-                                       .listenOnce( X.Event.READY, onReady );\r
+ * var audio = X.Audio( [ 'etc/special.mp3', 'etc/special.ogg', 'etc/special.wav' ] ).listenOnce( X.Event.READY, onReady );\r
  */\r
 X[ 'Audio' ] = X_EventDispatcher[ 'inherits' ](\r
        'X.Audio',\r
-       X_Class.POOL_OBJECT,\r
+       X_Class.NONE,\r
        {\r
                /**\r
                 * 音声の url。X.Event.BACKEND_READY で設定される。\r
@@ -66,24 +75,32 @@ X[ 'Audio' ] = X_EventDispatcher[ 'inherits' ](
                 * @type {string}\r
                 */\r
                'source'      : '',\r
+               \r
                /**\r
                 * 音声再生バックエンドの名前。X.Event.BACKEND_READY で設定される。\r
                 * @alias Audio.prototype.backendName\r
                 * @type {string}\r
                 */\r
                'backendName' : '',\r
-               \r
+\r
                'Constructor' : function( sourceList, opt_option ){\r
                        X_Audio_startDetectionBackend(\r
                                X_Audio_BACKENDS[ 0 ], this,\r
                                X_Type_isArray( sourceList ) ? X_Array_copy( sourceList ) : [ sourceList ],\r
                                opt_option || {} );\r
                        this[ 'listenOnce' ]( [ X_EVENT_BACKEND_READY, X_EVENT_BACKEND_NONE, X_EVENT_KILL_INSTANCE ], X_Audio_handleEvent );\r
+                       X_ViewPort[ 'listenOnce' ]( X_EVENT_UNLOAD, this, X_Audio_handleEvent );\r
                },\r
                \r
                /**\r
                 * 再生。開始位置・終了位置、ループの有無、ループ以降の開始位置、ループ以降の終了位置\r
                 * @alias Audio.prototype.play\r
+                * @param {number=} startTime 開始時間を ms で\r
+                * @param {number=} endTime 終了時間を ms で\r
+                * @param {boolean=} loop endTimeに達した際に曲をループさせるか\r
+                * @param {number=} loopStartTime ループ以後の開始時間を ms で\r
+                * @param {number=} loopEndTime ループ以後の終了時間を ms で\r
+                * @return {Audio} メソッドチェーン\r
                 */\r
                'play' : function( startTime, endTime, loop, loopStartTime, loopEndTime ){\r
                        var pair = X_Pair_get( this );\r
@@ -91,8 +108,10 @@ X[ 'Audio' ] = X_EventDispatcher[ 'inherits' ](
                        return this;\r
                },\r
                /**\r
-                * シーク\r
+                * シーク、再生中で無い場合は次回再生開始位置の指定のみ\r
                 * @alias Audio.prototype.seek\r
+                * @param {number} seekTime シーク位置を ms で\r
+                * @return {Audio} メソッドチェーン\r
                 */\r
                'seek' : function( seekTime ){\r
                        var pair = X_Pair_get( this );\r
@@ -102,6 +121,7 @@ X[ 'Audio' ] = X_EventDispatcher[ 'inherits' ](
                /**\r
                 * ポーズ\r
                 * @alias Audio.prototype.pause\r
+                * @return {Audio} メソッドチェーン\r
                 */\r
                'pause' : function(){\r
                        var pair = X_Pair_get( this );\r
@@ -111,6 +131,21 @@ X[ 'Audio' ] = X_EventDispatcher[ 'inherits' ](
                /**\r
                 * 状態の getter と setter\r
                 * @alias Audio.prototype.state\r
+                * @param {object=} obj setter の場合、上書きする値を格納したobject\r
+                * @return {Audio|object}\r
+                * @example\r
+audio.setState(\r
+ {\r
+       'startTime'     : 0,\r
+       'endTime'       : 80000,\r
+       'loopStartTime' : 120000,\r
+       'loopEndTime'   : 200000,\r
+       'currentTime'   : 0,\r
+    'loop'          : true,\r
+    'looded'        : false,\r
+    'volume'        : 1,\r
+    'autoplay'      : true\r
+});\r
                 */\r
                'state' : function( obj ){\r
                        var pair = X_Pair_get( this );\r
@@ -124,18 +159,22 @@ X[ 'Audio' ] = X_EventDispatcher[ 'inherits' ](
                                        'currentTime'   : -1,\r
                                        'loop'          : false,\r
                                        'looded'        : false,\r
-                                       'error'         : false,\r
+                                       'error'         : 0,\r
+                                       'autoplay'      : false,\r
                                        'playing'       : false,\r
-                                       'source'        : this[ 'source' ] || '',\r
-                                       'duration'      : 0\r
+                                       'source'        : this[ 'source' ],\r
+                                       'duration'      : 0,\r
+                                       'volume'        : 0.5\r
                                        };\r
                        };\r
                        pair && pair.setState( obj );\r
                        return this;\r
                },              \r
                /**\r
-                * ループの getter と setter\r
+                * ループの setter\r
                 * @alias Audio.prototype.loop\r
+                * @param {boolean} v \r
+                * @return {Audio}\r
                 */\r
                'loop' : function( v ){\r
                        var pair = X_Pair_get( this );\r
@@ -143,8 +182,10 @@ X[ 'Audio' ] = X_EventDispatcher[ 'inherits' ](
                        return this;\r
                },\r
                /**\r
-                * ボリュームの getter と setter 実装不十分!\r
+                * ボリュームの setter 実装不十分!\r
                 * @alias Audio.prototype.volume\r
+                * @param {number} v 0~1\r
+                * @return {Audio}\r
                 */\r
                'volume' : function( v ){\r
                        var pair = X_Pair_get( this );\r
@@ -152,8 +193,10 @@ X[ 'Audio' ] = X_EventDispatcher[ 'inherits' ](
                        return this;\r
                },\r
                /**\r
-                * 再生位置。\r
+                * å\86\8dç\94\9fä½\8dç½®ã\81®setterã\80\82\r
                 * @alias Audio.prototype.currentTime\r
+                * @param {number} v msで\r
+                * @return {Audio}\r
                 */\r
                'currentTime' : function( v ){\r
                        var pair = X_Pair_get( this );\r
@@ -163,6 +206,7 @@ X[ 'Audio' ] = X_EventDispatcher[ 'inherits' ](
                /**\r
                 * 再生中か?\r
                 * @alias Audio.prototype.isPlaying\r
+                * @return {boolean}\r
                 */\r
                'isPlaying' : function(){\r
                        var pair = X_Pair_get( this );\r
@@ -173,7 +217,7 @@ X[ 'Audio' ] = X_EventDispatcher[ 'inherits' ](
 );\r
 \r
 function X_Audio_handleEvent( e ){\r
-       var backend;\r
+       var backend, src, pair;\r
        \r
        switch( e.type ){\r
                case X_EVENT_BACKEND_READY :\r
@@ -182,17 +226,28 @@ function X_Audio_handleEvent( e ){
                        this[ 'unlisten' ]( X_EVENT_BACKEND_NONE, X_Audio_handleEvent );\r
                        this[ 'source' ]      = e[ 'source' ];\r
                        this[ 'backendName' ] = backend.backendName;\r
+                       \r
                        X_Pair_create( this, backend.klass( this, e[ 'source' ], e[ 'option' ] ) );\r
+                       this[ 'listenOnce' ]( X_EVENT_READY, X_Audio_handleEvent );\r
+                       break;\r
+               \r
+               case X_EVENT_READY : // TODO AudioBase 側へ行かない?\r
+                       pair = X_Pair_get( this );\r
+                       ( pair.autoplay || pair._playReserved ) && pair.actualPlay();\r
+                       delete pair._playReserved;\r
                        break;\r
                \r
                case X_EVENT_BACKEND_NONE :\r
+               case X_EVENT_UNLOAD :\r
                        this[ 'kill' ]();\r
                        break;\r
                \r
                case X_EVENT_KILL_INSTANCE :\r
-                       backend = X_Pair_get( this );\r
-                       backend && backend[ 'kill' ]();\r
-                       X_Pair_release( this, backend );\r
+                       X_ViewPort[ 'unlisten' ]( X_EVENT_UNLOAD, this, X_Audio_handleEvent );\r
+                       if( backend = X_Pair_get( this ) ){\r
+                               backend[ 'kill' ]();\r
+                               X_Pair_release( this, backend );\r
+                       };\r
                        break;\r
        };\r
 };\r
@@ -203,8 +258,9 @@ function X_Audio_handleEvent( e ){
  */\r
 \r
 function X_Audio_startDetectionBackend( backend, xaudio, sourceList, option ){\r
-       var source = sourceList[ 0 ] || '', \r
-               ext    = X_URL_getEXT( source ),\r
+       var source = sourceList[ 0 ] || '',\r
+               hash   = X_URL_paramToObj( X_URL_getHash( source ) ),\r
+               ext    = hash[ 'ext' ] || X_URL_getEXT( source ),\r
                sup;\r
        \r
        if( source && backend ){\r
@@ -212,29 +268,36 @@ function X_Audio_startDetectionBackend( backend, xaudio, sourceList, option ){
                sup[ 5 ] = sup;\r
                \r
                xaudio[ 'listenOnce' ]( X_EVENT_COMPLETE, backend, X_Audio_onEndedDetection, sup );\r
-               backend.detect( xaudio, source, ext );\r
+               backend.detect( xaudio, ext, hash );\r
        } else {\r
                xaudio[ 'asyncDispatch' ]( X_EVENT_BACKEND_NONE );\r
        };\r
 };\r
 \r
 function X_Audio_onEndedDetection( e, xaudio, sourceList, option, source, ext, sup ){\r
-       var i = X_Audio_BACKENDS.indexOf( this ), backend;\r
+       var i = X_Audio_BACKENDS.indexOf( this ), _e, hash, backend;\r
        \r
        if( e.canPlay ){\r
-               xaudio[ 'asyncDispatch' ]( {\r
+               _e = {\r
                        type          : X_EVENT_BACKEND_READY,\r
                        'option'      : option,\r
                        'source'      : source,\r
-                       'backendName' : this[ 'backendName' ],\r
+                       'backendName' : this.backendName,\r
                        'backendID'   : i\r
-               } );                    \r
+               };\r
+               // WebAudio\r
+               if( this.backendID === 1 ) _e[ 'needTouchForPlay' ] = /* X_WebAudio_need1stTouch && */ X_WebAudio_isNoTouch;\r
+               // HTMLAudio\r
+               if( this.backendID === 2 ) _e[ 'needTouchForLoad' ] = X_HTMLAudio_need1stTouch;\r
+\r
+               xaudio[ 'asyncDispatch' ]( _e );                        \r
        } else {\r
-               console.log( 'No ' + source + ' ' + this[ 'backendName' ] );\r
+               console.log( 'No ' + source + ' ' + this.backendName );\r
                if( sup[ 3 ] = source = sourceList[ sourceList.indexOf( source ) + 1 ] ){\r
-                       sup[ 4 ] = ext    = X_URL_getEXT( source );\r
+                       hash     = X_URL_paramToObj( X_URL_getHash( source ) );\r
+                       sup[ 4 ] = ext    = hash[ 'ext' ] || X_URL_getEXT( source );\r
                        xaudio[ 'listenOnce' ]( X_EVENT_COMPLETE, this, X_Audio_onEndedDetection, sup );\r
-                       this.detect( xaudio, source, ext );\r
+                       this.detect( xaudio, ext, hash );\r
                } else\r
                if( backend = X_Audio_BACKENDS[ i + 1 ] ){\r
                        X_Audio_startDetectionBackend( backend, xaudio, sourceList, option );\r
@@ -246,28 +309,28 @@ function X_Audio_onEndedDetection( e, xaudio, sourceList, option, source, ext, s
 \r
 \r
 \r
-var X_Audio_AbstractAudioBackend = X_EventDispatcher[ 'inherits' ](\r
-       'X.AbstractAudioBackend',\r
+var X_AudioBase = X_EventDispatcher[ 'inherits' ](\r
+       'X.AudioBase',\r
        X_Class.ABSTRACT,\r
        {\r
+               dispatcher    : null,\r
                \r
-               url           : '',\r
-               target        : null,\r
-               \r
-               startTime     : 0,\r
-               endTime       : -1,\r
+               startTime     : 0,    // state_startTime\r
+               endTime       : -1,   // state_startTime\r
                loopStartTime : -1,\r
                loopEndTime   : -1,\r
                seekTime      : -1,\r
-               duration      : 0,\r
+               duration      : 0,    //\r
 \r
                playing       : false,\r
-               error         : 0,                      \r
+               error         : 0,    //                \r
                autoLoop      : false,\r
                looped        : false,\r
-               autoplay      : false,\r
+               autoplay      : false,//\r
                gain          : 0.5,\r
                \r
+               _playReserved : false,\r
+               \r
                play : function( startTime, endTime, loop, loopStartTime, loopEndTime ){\r
                        if( 0 <= startTime ){\r
                                this.setState( {\r
@@ -275,21 +338,26 @@ var X_Audio_AbstractAudioBackend = X_EventDispatcher[ 'inherits' ](
                                        'startTime'     : startTime,\r
                                        'endTime'       : endTime,\r
                                        'loop'          : loop,\r
+                                       'looped'        : false,\r
                                        'loopStartTime' : loopStartTime,\r
                                        'loopEndTime'   : loopEndTime\r
                                } );\r
                        };\r
+                       // canPlay() : autoplay = true\r
                        this.actualPlay();\r
                },\r
                \r
                seek : function( seekTime ){\r
-                       if( seekTime < X_AudioWrapper_getEndTime( this ) ){\r
+                       if( seekTime < X_Audio_getEndTime( this ) ){\r
                                this.setState( { 'currentTime' : seekTime } );\r
                        };\r
                },\r
                \r
                pause : function(){\r
+                       this.seekTime = this.getActualCurrentTime();\r
                        this.playing && this.actualPause();\r
+                       // delete this.autoplay\r
+                       // delete this.playing\r
                },              \r
                \r
                loop : function( v ){\r
@@ -325,6 +393,7 @@ var X_Audio_AbstractAudioBackend = X_EventDispatcher[ 'inherits' ](
                        'volume'        : this.gain,\r
                        'playing'       : this.playing,                         \r
                        'duration'      : this.duration,\r
+                       'autoplay'      : this.autoplay,\r
                        \r
                        'currentTime'  : this.playing ? this.getActualCurrentTime() : this.seekTime,\r
                        'error'        : this.getActualError ? this.getActualError() : this.error\r
@@ -339,8 +408,8 @@ var X_Audio_AbstractAudioBackend = X_EventDispatcher[ 'inherits' ](
                        for( k in obj ){\r
                                v = obj[ k ];\r
                                switch( k ){\r
-                                       case 'currentTime' :\r
-                                               v = X_AudioWrapper_timeStringToNumber( v );\r
+                                       case 'currentTime'   :\r
+                                               v = X_Audio_timeStringToNumber( v );\r
                                                if( X_Type_isNumber( v ) ){\r
                                                        if( playing ){\r
                                                                if( this.getActualCurrentTime() !== v ){\r
@@ -356,7 +425,7 @@ var X_Audio_AbstractAudioBackend = X_EventDispatcher[ 'inherits' ](
                                                break;\r
                                                        \r
                                        case 'startTime'     :\r
-                                               v = X_AudioWrapper_timeStringToNumber( v );\r
+                                               v = X_Audio_timeStringToNumber( v );\r
                                                if( v || v === 0 ){\r
                                                        if( this.startTime !== v ){\r
                                                                this.startTime = v;                                     \r
@@ -367,7 +436,7 @@ var X_Audio_AbstractAudioBackend = X_EventDispatcher[ 'inherits' ](
                                                break;\r
                                        \r
                                        case 'endTime'       :\r
-                                               v = X_AudioWrapper_timeStringToNumber( v );\r
+                                               v = X_Audio_timeStringToNumber( v );\r
                                                if( v || v === 0 ){\r
                                                        if( this.endTime !== v ){\r
                                                                this.endTime = v;\r
@@ -380,7 +449,7 @@ var X_Audio_AbstractAudioBackend = X_EventDispatcher[ 'inherits' ](
                                                break;\r
                                                \r
                                        case 'loopStartTime' :\r
-                                               v = X_AudioWrapper_timeStringToNumber( v );\r
+                                               v = X_Audio_timeStringToNumber( v );\r
                                                if( v || v === 0 ){\r
                                                        if( this.loopStartTime !== v ){\r
                                                                this.loopStartTime = v;                                 \r
@@ -391,7 +460,7 @@ var X_Audio_AbstractAudioBackend = X_EventDispatcher[ 'inherits' ](
                                                break;\r
                                                \r
                                        case 'loopEndTime'   :\r
-                                               v = X_AudioWrapper_timeStringToNumber( v );\r
+                                               v = X_Audio_timeStringToNumber( v );\r
                                                if( v || v === 0 ){\r
                                                        if( this.loopEndTime !== v ){\r
                                                                this.loopEndTime = v;\r
@@ -432,35 +501,38 @@ var X_Audio_AbstractAudioBackend = X_EventDispatcher[ 'inherits' ](
                                                        };\r
                                                };\r
                                                break;\r
+                                       case 'useVideo' :\r
+                                               break;\r
                                        default :\r
-                                               throw 'bad arg';\r
+                                               alert( 'bad arg! ' + k );\r
                                };\r
                        };\r
                        \r
                        if( this.endTime < this.startTime ||\r
                                ( this.loopEndTime < 0 ? this.endTime : this.loopEndTime ) < ( this.loopStartTime < 0 ? this.startTime : this.loopStartTime ) ||\r
-                               X_AudioWrapper_getEndTime( this ) < this.seekTime// ||\r
+                               X_Audio_getEndTime( this ) < this.seekTime// ||\r
                                //this.duration < this.endTime\r
                        ){\r
-                               console.log( 'setState 0:' + this.startTime + ' -> ' + this.endTime + ' d:' + this.duration + ' 1:' + this.loopStartTime + ' -> ' + this.loopEndTime );\r
+                               console.log( 'setState 0:' + this.startTime + ' -> ' + this.endTime + ' looped:' + this.looped + ' 1:' + this.loopStartTime + ' -> ' + this.loopEndTime );\r
                                return;\r
                        };\r
                        \r
                        v = end + seek + volume;\r
-                       return v && this.afterUpdateState( v );         \r
+                       return v && this.playing && this.afterUpdateState( v );\r
                }\r
                \r
        }\r
 );\r
 \r
 \r
-function X_AudioWrapper_timeStringToNumber( time ){\r
+function X_Audio_timeStringToNumber( time ){\r
        var ary, ms, s = 0, m = 0, h = 0;\r
+\r
        if( X_Type_isNumber( time ) ) return time;\r
        if( !X_Type_isString( time ) || !time.length ) return;\r
 \r
        ary = time.split( '.' );\r
-       ms  = parseInt( ( ary[ 1 ] + '000' ).substr( 0, 3 ) ) || 0;\r
+       ms  = parseFloat( ( ary[ 1 ] + '000' ).substr( 0, 3 ) ) || 0;\r
        \r
        ary = ary[ 0 ].split( ':' );\r
        if( 3 < ary.length ) return;\r
@@ -469,17 +541,17 @@ function X_AudioWrapper_timeStringToNumber( time ){
                case 0 :\r
                        break;\r
                case 1 :\r
-                       s = parseInt( ary[ 0 ] ) || 0;\r
+                       s = parseFloat( ary[ 0 ] ) || 0;\r
                        break;\r
                case 2 :\r
-                       m = parseInt( ary[ 0 ] ) || 0;\r
-                       s = parseInt( ary[ 1 ] ) || 0;\r
+                       m = parseFloat( ary[ 0 ] ) || 0;\r
+                       s = parseFloat( ary[ 1 ] ) || 0;\r
                        if( 60 <= s ) alert( 'invalid time string ' + time );\r
                        break;\r
                case 3 :\r
-                       h = parseInt( ary[ 0 ] ) || 0;\r
-                       m = parseInt( ary[ 1 ] ) || 0;\r
-                       s = parseInt( ary[ 2 ] ) || 0;\r
+                       h = parseFloat( ary[ 0 ] ) || 0;\r
+                       m = parseFloat( ary[ 1 ] ) || 0;\r
+                       s = parseFloat( ary[ 2 ] ) || 0;\r
                        if( 60 <= s ) alert( 'invalid time string ' + time );\r
                        if( 60 <= m ) alert( 'invalid time string ' + time );\r
                        break;\r
@@ -490,33 +562,34 @@ function X_AudioWrapper_timeStringToNumber( time ){
        return ms < 0 ? 0 : ms;\r
 };\r
 \r
-function X_AudioWrapper_getStartTime( audioWrapper, endTime, delSeekTime ){\r
-       var seek = audioWrapper.seekTime;\r
-       if( delSeekTime ) delete audioWrapper.seekTime;\r
+function X_Audio_getStartTime( audioBase, endTime, delSeekTime ){\r
+       var seek = audioBase.seekTime;\r
+       \r
+       if( delSeekTime ) delete audioBase.seekTime;\r
        \r
        if( 0 <= seek ){\r
-               if( audioWrapper.duration <= seek || endTime < seek ) return 0;\r
+               if( audioBase.duration <= seek || endTime < seek ) return 0;\r
                return seek;\r
        };\r
        \r
-       if( audioWrapper.looped && 0 <= audioWrapper.loopStartTime ){\r
-               if( audioWrapper.duration <= audioWrapper.loopStartTime || endTime < audioWrapper.loopStartTime ) return 0;\r
-               return audioWrapper.loopStartTime;\r
+       if( audioBase.looped && 0 <= audioBase.loopStartTime ){\r
+               if( audioBase.duration <= audioBase.loopStartTime || endTime < audioBase.loopStartTime ) return 0;\r
+               return audioBase.loopStartTime;\r
        };\r
        \r
-       if( audioWrapper.startTime < 0 || audioWrapper.duration <= audioWrapper.startTime ) return 0;\r
-       return audioWrapper.startTime;\r
+       if( audioBase.startTime < 0 || audioBase.duration <= audioBase.startTime ) return 0;\r
+       return audioBase.startTime;\r
 };\r
 \r
-function X_AudioWrapper_getEndTime( audioWrapper ){\r
-       var duration = audioWrapper.duration;\r
+function X_Audio_getEndTime( audioBase ){\r
+       var duration = audioBase.duration;\r
        \r
-       if( audioWrapper.looped && 0 <= audioWrapper.loopEndTime ){\r
-               if( duration <= audioWrapper.loopEndTime ) return duration;\r
-               return audioWrapper.loopEndTime;\r
+       if( audioBase.looped && 0 <= audioBase.loopEndTime ){\r
+               if( duration <= audioBase.loopEndTime ) return duration;\r
+               return audioBase.loopEndTime;\r
        };\r
        \r
-       if( audioWrapper.endTime < 0 || duration <= audioWrapper.endTime ) return duration;\r
-       return audioWrapper.endTime;\r
+       if( audioBase.endTime < 0 || duration <= audioBase.endTime ) return duration;\r
+       return audioBase.endTime;\r
 };\r
 \r