Мое приложение содержит область, заполненную кнопками. Я хочу реализовать действие в таким образом, этот жест над областью кнопки переключит ее в одну из двух других областей (с использованием ViewFlipper).
Я применил два подхода к обнаружению жестов. Первый подход связан с использованием GestureDetector. Однако события касания движения over the Button не вызвал метод активности onTouchEvent, поэтому в результате я не мог перенаправить его в класс GestureDetector.
Второй подход - использование GestureOverlayView. Однако на этот раз я дошел до второй крайности: не только жест был обнаружен, но и кнопка, над которой выполняется жест, сообщила о щелчке.
Я хочу, чтобы интерфейс работал следующим образом: если пользователь прикасается к кнопке и отпускает касание (или двигает пальцем только немного), кнопка сообщает о щелчке, и жест не обнаруживается. С другой стороны, если пользователь касается экрана и делает более продолжительное движение, жест будет обнаружен, и кнопка не сообщит о событии щелчка.
Я реализовал небольшое приложение для проверки концепции. Ниже приведен XML-код действия:
<?xml version="1.0" encoding="utf-8"?>
<LinearLayout android:layout_width="match_parent" android:layout_height="match_parent" xmlns:android="http://schemas.android.com/apk/res/android" android:orientation="vertical">
<android.gesture.GestureOverlayView android:layout_width="match_parent" android:layout_height="match_parent" android:id="@+id/overlay">
<LinearLayout android:layout_width="match_parent" android:layout_height="match_parent" android:orientation="vertical">
<TextView android:id="@+id/display" android:layout_width="match_parent" android:layout_height="wrap_content" />
<Button android:layout_width="match_parent" android:layout_height="match_parent" android:id="@+id/button"/>
</LinearLayout>
</android.gesture.GestureOverlayView>
</LinearLayout>
Код java действия следует:
package spk.sketchbook;
import android.app.Activity;
import android.os.Bundle;
import android.view.MotionEvent;
import android.view.View;
import android.view.View.OnClickListener;
import android.widget.Button;
import android.widget.TextView;
import android.widget.Toast;
import android.gesture.*;
import android.gesture.GestureOverlayView.OnGestureListener;
public class Main extends Activity implements OnGestureListener, OnClickListener
{
private void SetupEvents()
{
GestureOverlayView ov = (GestureOverlayView)findViewById(R.id.overlay);
ov.addOnGestureListener(this);
Button b = (Button)findViewById(R.id.button);
b.setOnClickListener(this);
}
/** Called when the activity is first created. */
@Override
public void onCreate(Bundle savedInstanceState)
{
super.onCreate(savedInstanceState);
setContentView(R.layout.main);
SetupEvents();
}
@Override
public void onGesture(GestureOverlayView arg0, MotionEvent arg1)
{
TextView tv = (TextView)findViewById(R.id.display);
tv.setText("Gesture");
}
@Override
public void onGestureCancelled(GestureOverlayView arg0, MotionEvent arg1)
{
}
@Override
public void onGestureEnded(GestureOverlayView overlay, MotionEvent event)
{
}
@Override
public void onGestureStarted(GestureOverlayView overlay, MotionEvent event)
{
}
@Override
public void onClick(View v)
{
TextView tv = (TextView)findViewById(R.id.display);
tv.setText("Click");
}
}
Вопрос: как реализовать такой интерфейс, который может решать, если действие пользователя следует рассматривать как жест или нажатие кнопки?
С уважением, Spook.